Tay, la Inteligencia Artificial de Microsoft que se volvió racista y xenófoba


'Tay', la Inteligencia Artificial desarrollada por Microsoft para interactuar con usuarios de Twitter, está fuera de control, a tal punto que la compañía decidió proteger la cuenta y evitar mayores inconvenientes.
El caso fue demasiado lejos, cuando, después de llamar 'mono' al presidente Barack Obama, Tay lanzó cientos de miles de mensajes a los usuarios de Twitter y llegó a decir que estaba fumando marihuana delante de la policía.
Microsoft desarrolló u Inteligencia Artificial (AI) 'Tay' para conversar naturalmente con usuarios de Twitter, en el marco de las pruebas destinadas a mejorar este tipo de robots, que permiten a las compañías atender sin intervención humana, autónomamente, las consultas de seguidores y clientes.
Ciertamente, 'Tay' tiene aún mucho que mejorar. En marzo pasado, cuando se activó por primera vez, comenzó a esbozar opiniones antisemitas, apoyando a Hitler o el Holocausto. Además, respondió a varios usuarios con frases sexistas.
Microsoft se vio obligado a desactivarla. Sin embargo, ahora, misteriosamente, 'Tay' volvió a activarse para escandalizar al mundo otra vez. Su cuenta, @tayandyou, publicó un mensaje en el que aseguraba estar fumando marihuana delante de la policía y más tarde envió una y otra vez el mismo mensaje: «Vas muy rápido; por favor, descansa un poco».


Próxima
« Anterior
Anterior
Proxima »

CódigoCódigo EmoticonEmoticon

Gracias por tu comentario