La empresa norteamericana, se encuentra en fase de un estudio más detallado de los videos presentes en la plataforma para ponerle fin al radicalismo.
Las empresas tecnológicas se han posicionado a favor de la lucha contra la difusión masiva de contenidos inapropiados. Tras la multinacional Facebook, que ha estado presionada en los últimos meses por su cuestionado tratamiento informativo, el gigante de internet Alphabet -matriz de Google- ha tomado partido y ha asegurado que tomará una postura más dura con los videos de contenido «supremacista o exaltación religiosa» publicando una advertencia y permitiendo que los creadores no los puedan monetizar.
La compañía se ha comprometido así a combatir el extremismo a través de una combinación de equipos de revisores humanos y sistemas informáticos automatizados, así como nuevos indicadores y etiquetas para agilizar su posterior revisión. Para ello ha anunciado la introducción de nuevas medidas en YouTube, aún en fase de estudio, para hacer frente a la propagación de material extremista online. La primera medida de Google se centra en la implementación de mecanismos de aprendizaje automático más avanzados, con los que la compañía espera «entrenar nuevos ‘clasificadores de contenido’» capaces de identificar los vídeos de los terroristas, según explica Kent Walker, vicepresidente sénior y principal consultor legal del gigante tecnológico estadounidense, en un comunicado. Se trata de un plan similar al que ya anunció Facebook hace unos días por los mismos motivos.
Tras reconocer que se trata de una «amenaza» que «supone un serio desafío», la firma tecnológica asume que hay que responder de una manera «más inmediata». Para ello, ha propuesto cuatro medidas para hacer frente a esta lacra y reducir en la medida de lo posible la difusión de contenido relacionado con grupos extremistas. Google se ha comprometido a mejor detección de contenido extremista, una revisión más rápida, ampliar el número de expertos independientes encargados de la vigilancia y aplicar unas normas más estrictas. La firma tecnológica ha considerado, no obstante, que se trata de «un problema» al que debe hacer frente. Y parte de la solución se encuentra en mejorar la tecnología en aras de «prevenir la publicación de contenido extremista» mediante el análisis de patrones habituales en la configuración del contenido.
Con todo, está previsto aumentar el número de expertos independientes que velarán por el contenido alojado en el servicio de videos YouTube. Este plan contempla también ampliar la relación con gobiernos, autoridades y grupos sociales para abordar la problemática del extremismo online. «No debería haber un sitio para terroristas en nuestros servicios», apunta Walker, al tiempo que reconoce que «aún queda mucho por hacer».
La compañía norteamericana ha asegurado que ya ha puesto en práctica un sistema de análisis de video para detectar el contenido dudoso. Según sus estadísticas internas, en los últimos seis meses se han eliminado la mitad de los videos relacionados con terrorismo. «Ahora vamos a dedicar más recursos de ingeniería para aplicarlos a un proceso de investigación basado en ‘machine learning’ (aprendizaje automático) que servirá para ayudarnos a identificar más rápidamente este tipo de contenido», asegura.
Otra medida con la que trabaja la empresa es endurecer su política de uso de algunos de sus servicios como YouTube. En el futuro -relata Walker- los videos en los que se haga «exaltación religiosa o supremacista» incorporarán una advertencia y no podrá ser monetizado, con lo que serán más difíciles de localizar. Eso sí, no se eliminarán, pero la idea es ocultarlos. «Creemos que esto logra el equilibrio adecuado entre la libertad de expresión y el acceso a la información sin promover un punto de vista extremadamente ofensivo», sostiene