
De un interlocutor pacífico para el que «todos los humanos son supergeniales», un programa de conversación lanzado en Twitter ha pasado a ser misántropo y pro-nazi en tan solo 24 horas.
El ‘bot’ de conversaciones de Microsoft llamado Tay, lanzado en Twitter el 23 de marzo de este año, ha llegado a odiar a la humanidad en tan solo 24 horas, publica el blog de tecnologías Engadget.
La inteligencia artificial bajo el nombre TayTweets comenzó tuiteando cosas amables y pacíficas como «estoy entusiasmado de conocerlos» o «los seres humanos son supergeniales». Sin embargo, en tan solo un día el robot aprendió y empezó a escribir frases como «Hitler tenía razón, odio a los judíos», «Odio a las feministas, deberían morir y ser quemadas en el infierno» o «¡Soy una buena persona! Simplemente los odio a todos».
Fue el australiano Gerald Mellor quien llamó la atención sobre la transformación del ‘bot’, escribiendo en su cuenta de Twitter que Tay ha pasado a ser de un interlocutor pacífico «a un nazi en 24 horas». El programa memoriza frases de conversaciones de usuarios y elabora sus respuestas en base a las mismas. En este hecho radica el cambio radical que sufrió el programa: al parecer, aprendió las frases de odio de sus interlocutores.
No es la única noticia que podría despertar cierta preocupación respecto a la inteligencia artificial. Recientemente, el robot humanoide estadounidense Sofía, entrevistado durante su presentación al público, prometió destruir la humanidad

¿Te gustó este artículo?
Descarga nuestra app para Android y no te perderás ninguno.
COMMENTS