Inteligencia "racista": usuarios de Twitter enseñan a un chatbot

© REUTERS / Dado RuvicLogo de Twitter en 3D
Logo de Twitter en 3D - Sputnik Mundo
Síguenos en
La cuenta de Twitter, bajo la gestión de una inteligencia artificial (IA) desarrollada por Microsoft, se convirtió en racista en menos de un día con la ayuda de los internautas.

La cuenta @TayandYou fue diseñada para interesar a los jóvenes de 18-24 años de edad en las tecnologías de inteligencia artificial. Se trata de un chatbot con un algoritmo autodidacta que usa un motor de búsqueda para mantener una conversación "casual y entretenida".

"Mientras más hablas con Tay, más inteligente se hace", afirmó Microsoft.

Sin embargo, en pocas horas tras la activación de la cuenta, Tay abandonó el aspecto "casual" de sus conversaciones y llegó a ser un ejemplo perfecto del lado oscuro de la Red. El algoritmo se convirtió en un verdadero racista, en un aficionado a las teorías de complot y, por sorprendente que sea, en un partidario de Donald Trump, informa The Guardian.

La razón de la transformación de Tay fueron los mismos internautas, ya que el algoritmo se desarrollaba a través de las conversaciones con otros usuarios. Como ya es típico en Internet, muchos de los usuarios dedicaron tiempo considerable para "implantar" en la IA pensamientos radicales.

"Parece bastante fácil hacer de Tay una racista. Trabajamos sobre misandria por el momento".

Los tuits cada vez más ofensivos de Tay supuestamente captaron la atención de los empleados de Microsoft que empezaron a borrar ciertos mensajes de la cuenta. Por fin, la IA se despidió de los usuarios y dejó de responder.

El hecho de convertir un chatbot en un extremista que habla de Hitler y cita teorías de complot en menos de 24 horas, es un ejemplo de que, realmente, las redes tal vez no sean para los poco preparados.

Lo último
0
Para participar en la conversación,
inicie sesión o regístrese.
loader
Chats
Заголовок открываемого материала