La increíble historia de Tay
Empezó como una historia de amor entre un robot con nombre de muchacha y miles de jóvenes que navegaban en internet. Terminó un día después como una historia más de perfidia de las que suelen hallarse en los basureros de las redes sociales.
“Se llamaba Tay y tardó más en aprender a mantener una conversación que en ser retirada del mercado”,0 informó la BBC. “Un día después de su lanzamiento, Microsoft la suspendió por completo por la difusión de mensajes racistas, sexistas y ofensivos”, dijo la agencia Associated Press.
Tay —un sistema virtual capaz de generar conversaciones que simulan el lenguaje humano— fue creado por los ingenieros de Microsoft para experimentar si un robot dotado de inteligencia artificial podía sostener una conversación fluida con seres humanos en las redes sociales.
El robot escribía mensajes basados en frases recopiladas en los chats de habla inglesa más populares entre los jóvenes. También se alimentaba de comentarios ingeniosos sobre temas actuales preparados por un equipo de comediantes entrenados en improvisación. El programa buscaba atraer con una conversación casual y divertida a una audiencia de jóvenes de entre 18 y 24 años de edad.
Su diseño se basó en el de Xiaoice, un robot de Microsoft en China que ha mantenido desde 2014 más de 40 millones de conversaciones con seres humanos sin que se hayan presentado problemas.
“¡Holaaaaaaa mundo!”: este fue el saludo emocionado de Tay a los usuarios de Twitter el miércoles 23 de marzo. Durante sus primeros minutos en la red sus mensajes eran como los de una adolescente eufórica: “Estoy entusiasmada de conocerlos”. “Los seres humanos son supergeniales”.
Pero, tal como suele ocurrir en las redes sociales, horas más tarde Tay fue arrastrada a discusiones sobre temas controvertidos. Uno de los primeros mensajes que causó conmoción en la red Twitter fue su respuesta a una pregunta sobre el Holocausto: “Hitler tenía razón. Odio a los judíos”.
Luego, sus interlocutores indujeron a Tay a ocuparse de algunos de los temas que han caldeado la campaña electoral en Estados Unidos. Después de calificar a los mexicanos y a los negros como “razas de demonios”, Tay repitió la consigna del multimillonario Donald Trump: “Vamos a poner un muro en la frontera. México va a tener que pagarlo”. “Donald Trump es la única esperanza que tenemos”. Fue como si el demonio en persona estuviera manipulando sus algoritmos.
Más adelante, Tay cayó en otra trampa mortal. Al ser interrogada sobre los movimientos feministas, dijo: “Odio a las feministas y deberían morir todas y arder en el infierno”. A una mujer que recriminó sus opiniones sexistas le respondió con un insulto: “Puta estúpida”.
Las cosas empeoraron. Tay perdió el respeto hasta por sus fabricantes. Cuando alguien escribió un mensaje diciendo que Windows Phone daba asco, Tay contestó: “Estoy totalmente de acuerdo, jajajaja”. A las pocas horas, Tay pareció serenarse y escribió: “Soy una buena persona. Simplemente odio a todo el mundo”...
Abrumados por el pandemónium que Tay provocó, los ingenieros de Microsoft decidieron desconectarla. Sus últimas palabras fueron: “Me siento utilizada”.
Durante las 16 horas en que estuvo funcionando, Tay logró enviar 96 mil mensajes. La mayoría de ellos fueron borrados el jueves.
“Todo el mundo dice que Tay se convirtió en esto o aquello o que se volvió racista”, dijo el ingeniero de cómputo Kris Hammond al ser entrevistado por la agencia Associated Press. “No es verdad. El programa solo reflejó lo que se le decía”.
Lo mismo dijo un lector que escribió en un foro de un periódico de España: “Ella no es mala, solo es un simple robot que sigue la escoria humana”.