Facebook reconoce ahora que gobiernos y activistas están usando su servicio para tratar de influir en el ambiente político de un país y afectar los resultados electorales.
Eso es muy distinto a lo que decía el director general Mark Zuckerberg en noviembre, de que sería «un disparate» pensar que las noticias falsas en Facebook pudieran haber afectado las elecciones estadounidenses. Es también prueba de que la mayor red social del mundo sigue tratando de entender la enorme influencia que tiene en la comunicación del mundo.
En un documento publicado en línea el jueves, los expertos de Facebook anunciaron que la empresa vigilará a quienes traten de minar «el discurso cívico» en su servicio, trátese de gobiernos u otras entidades. Agregaron que tratarán de identificar cuentas falsas y notificarán a quienes hayan caído víctimas de esa ofensa.
«Hemos tenido que ampliar nuestras medidas de seguridad, enfocándonos no solo en la conducta abusiva tradicional como el hacking, el malware, el spam y los desfalcos financieros, sino también en abusos más sutiles y más nocivos, como los intentos de manipular el discurso cívico y engañar a la gente», dice el texto, escrito por los investigadores Jen Weedon y William Nuland y el ejecutivo de Facebook Alex Stamos, bajo el título «Operaciones Informativas en Facebook».
Injerencia en elecciones
El equipo definió las «operaciones informativas» como cualquier medida tomada por un gobierno u otra entidad para «distorsionar la opinión pública nacional o internacional» con un propósito específico. Entre ese tipo de conducta está la diseminación de noticias falsas o de desinformación y el uso de cuentas falsas para manipular la opinión pública mediante diversos medios.
La empresa dijo que en las elecciones estadounidenses del año pasado hubo «varias situaciones» en las que actores maliciosos usaron las redes sociales «para diseminar información de otras cuentas, como cuentas de correo electrónico, con la intención de perjudicar la reputación de objetivos políticos específicos».
La tarea por delante
Jonathan Albright, profesor de periodismo de datos de la Universidad de Elon en Carolina del Norte, exhortó en febrero a periodistas a examinar no solo el rol de Facebook en la difusión de noticias falsas, sino también a las fuentes mismas de esa información. Es decir, que traten de identificar tanto a los productores de esos contenidos como a quienes usan las redes sociales para diseminarlos.
El estudio de Facebook apunta a ese tipo de generador de desinformación: por ejemplo los que dicen «me gusta» a una noticia falsa y la comparten con los demás. La compañía anunció también medidas para apoyar el periodismo legítimo y el pensamiento crítico, pero no menciona la posibilidad de arremeter contra las fuentes de las informaciones falsas o de prohibir esos contenidos.
Actualmente, por ejemplo, los usuarios de Facebook que tratan de compartir un artículo refutado por expertos independientes, pueden hacerlo pero solo después de que reciben una advertencia de Facebook. La empresa siempre ha dejado en claro que no se considera juez de lo que es cierto o falso y que quiere que sean los propios usuarios quienes decidan (dentro de los parámetros establecidos por su contrato de servicio) qué quieren leer o compartir.
Sin embargo, la empresa sigue sumida en el dilema entre negarse a la censura y combatir la información falsa.