Microsoft suspende chatbot que aprendió demasiado

-

- Publicidad -

OMG! ¿Escuchaste del programa de inteligencia artificial que diseñó Microsoft para chatear como una adolescente?

Pues fue suspendido por completo en menos de un día luego de que comenzó a difundir mensajes racistas, sexistas y ofensivos.

- Publicidad -

Microsoft dijo que todo era culpa de gente soez que emprendió un «esfuerzo coordinado» para hacer que el chatbot conocido como Tay «respondiera de forma inapropiada. A lo que un experto en inteligencia artificial respondió: ¡Dah!

Bueno, en realidad no dijo eso. Pero el científico computacional Kris Hammond si comentó: «No puedo creer que no lo vieran venir».

Microsoft comentó que sus investigadores crearon Tay como un experimento para saber más sobre computadoras y conversación humana. En su sitio web, la compañía afirmó que el programa estaba dirigido a una audiencia de jóvenes de entre 18 y 24 años de edad y «diseñado para atraer y entretener a personas que se conectan en línea, por medio de una conversación casual y divertida».

En otras palabras, el programa usaba mucha jerga e intentaba dar respuestas graciosas a mensajes y fotografías. El chatbot fue lanzado el miércoles, y Microsoft invitó al público a interactuar con Tay en Twitter y otros servicios populares entre los adolescentes y adultos jóvenes.

Pero algunos usuarios encontraron raras las respuestas de Tay, y aparentemente, otros encontraron que no era muy difícil hacer que Tay realizara comentarios ofensivos, aparentemente obligada al repetir preguntas o declaraciones que incluían mensajes ofensivos. Pronto, Tay estaba enviando mensajes de empatía a Hitler, y creando un furor en redes sociales.

Aunque la empresa no dio detalles, Hammond señaló que aparentemente Microsoft no se esforzó en preparar a Tay con respuestas apropiadas para ciertas palabras o temas. Tay parece una versión de tecnología de «llamada y respuesta», agregó Hammond, quien estudia inteligencia artificial en la Universidad Northwestern y también funge como científico en jefe en Narrative Science, una compañía que desarrolla programas de cómputo que convierten datos en reportes narrativos.

El problema es que Microsoft le dio rienda suelta a Tay en línea, en donde muchas personas consideran que es entretenido armar un alboroto. La compañía debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, señaló Caroline Sinders, experta en «analítica conversacional» y quien trabaja en robots de chat para otra empresa tecnológica (a la que solicitó no nombrar). Dijo que Tay era «un ejemplo de mal diseño».

Pulsa aquí para apoyar la libertad de expresión en Venezuela. Tu donación servirá para fortalecer nuestra plataforma digital desde la redacción del Decano de la Prensa Nacional, y así permitir que sigamos adelante comprometidos con la información veraz, como ha sido nuestra bandera desde 1904.

¡Contamos contigo!

Apóyanos aquí

- Publicidad -

Más leido hoy

- Publicidad -

Debes leer

- Publicidad -
- Publicidad -