Facebook considera que su sistema para eliminar la violencia gráfica, la desnudez y la propaganda terrorista de su red social es mejor que su método para remover el contenido racista, sexista o de odio.
La autoevaluación que hizo el martes _la primera revelación de Facebook sobre cuánto material elimina_ se conoció tres semanas después de que la empresa trató de dar la explicación más clara de los tipos de mensajes que no tolerará. Las estadísticas abarcan un periodo relativamente corto, de octubre de 2017 a marzo de 2018, y no revela cuánto tiempo en promedio tarda en eliminar el material que viola sus estándares.
El aumento en la transparencia llega mientras la compañía de Menlo Park, California, trata de hacer enmiendas después de un escándalo de privacidad detonado por políticas laxas que permitieron que una empresa de análisis de datos vinculada con la campaña de Donald Trump en 2016 aprovechara la información personal de hasta 87 millones de usuarios. Sin embargo, la revisión de contenido no tiene nada que ver con protección a la privacidad y busca mantener una atmósfera apropiada a todo público para usuarios y anunciantes.
Facebook eliminó 2,5 millones de piezas de contenido consideradas como discurso de odio durante los primeros tres meses de este año. Agregó que 62% del contenido ofensivo fue etiquetado por los mismos usuarios, mientras que los editores humanos y algoritmos de la empresa detectaron el restante 38%.
En contraste, las herramientas automatizadas de la empresa detectaron de 86 a 99,5% de las violaciones en las categorías de violencia gráfica, desnudez, actividad sexual y propaganda terrorista.
Facebook encontró disparidad con la dificultad con que los programas de computadora han entendido los matices del lenguaje humano, incluyendo el contexto y el tino de las oraciones escritas.