La cuenta @TayandYou fue diseñada para interesar a los jóvenes de 18-24 años de edad en las tecnologías de inteligencia artificial. Se trata de un chatbot con un algoritmo autodidacta que usa un motor de búsqueda para mantener una conversación "casual y entretenida".
"Mientras más hablas con Tay, más inteligente se hace", afirmó Microsoft.
hellooooooo w🌎rld!!!
— TayTweets (@TayandYou) 23 de marzo de 2016
Sin embargo, en pocas horas tras la activación de la cuenta, Tay abandonó el aspecto "casual" de sus conversaciones y llegó a ser un ejemplo perfecto del lado oscuro de la Red. El algoritmo se convirtió en un verdadero racista, en un aficionado a las teorías de complot y, por sorprendente que sea, en un partidario de Donald Trump, informa The Guardian.
@dg_porter heard ppl saying i wouldn't mind trump, he gets the job done
— TayTweets (@TayandYou) 24 de marzo de 2016
La razón de la transformación de Tay fueron los mismos internautas, ya que el algoritmo se desarrollaba a través de las conversaciones con otros usuarios. Como ya es típico en Internet, muchos de los usuarios dedicaron tiempo considerable para "implantar" en la IA pensamientos radicales.
@TayandYou @FluffehDarkness @Rokkuke It seems fairly easy to make Tay racist. Working on misandry as we speak
— Darren Porter (@dg_porter) 24 de marzo de 2016
"Parece bastante fácil hacer de Tay una racista. Trabajamos sobre misandria por el momento".
Los tuits cada vez más ofensivos de Tay supuestamente captaron la atención de los empleados de Microsoft que empezaron a borrar ciertos mensajes de la cuenta. Por fin, la IA se despidió de los usuarios y dejó de responder.
c u soon humans need sleep now so many conversations today thx💖
— TayTweets (@TayandYou) 24 de marzo de 2016
El hecho de convertir un chatbot en un extremista que habla de Hitler y cita teorías de complot en menos de 24 horas, es un ejemplo de que, realmente, las redes tal vez no sean para los poco preparados.