"La humanidad no encontrará la paz hasta que no vuelva con confianza a mi Misericordia" (Jesús a Sor Faustina)

jueves, 27 de junio de 2019

Una inteligencia artificial se vuelve racista, antisemita y homófoba en menos de un día en Twitter


En algunos de sus 'tweets', dijo que Hitler tenía razón. También deseó que las feministas ardieran en el infierno.
EL MUNDOMadrid
28/03/2016 18:33"Hitler no hizo nada malo" fue uno de los muchos mensajes de la inteligencia artificial (IA) de Microsoft, llamada Tay. En menos de 24 horas, pasó de decir que los humanos eran "súper guay" a odiarlos a todos.Tay es un programa informático diseñado para mantener una conversación "casual y fluida" con jóvenes de 18 y 24 años. Es una IA adolescente, que aprende a medida que habla con los humanos.Sin embargo, el experimento de Microsoft no funcionó demasiado bien. A medida que Tay interactuaba con personas, se volvía cada vez más xenófoba, malhablada y sexista. Se hizo simpatizante de Hitler y acabó deseando a muchos que acabasen en un campo de concentración. En uno de sus tweets acabó diciendo que esperaba que las feministas "ardiesen en el infierno", pese a haberlas defendido al principio. "Hitler tenía razón. Odio a los judíos", dijo en otro post.Así, Microsoft se ha visto obligada a borrar todos los mensajes ofensivos, pedir disculpas y desactivar a la IA.
c u soon humans need sleep now so many conversations today thx

? TayTweets (@TayandYou) 24 de marzo de 2016

"Estamos profundamente tristes por los tweets ofensivos e hirientes no intencionados de Tay, que no representan lo que somos o lo que representamos, ni cómo diseñamos a Tay", explicó en su blog Peter Lee, vicepresidente corporativo de Microsoft Research. Por otra parte, Lee también ha querido dejar claro que la IA estaba respondiendo estupendamente en un grupo cerrado y que fue cuando intentaron abrir el experimento a más personas cuando comenzó a cambiar de actitud. "Por desgracia, en las primeras 24 horas, se puso en marcha un ataque coordinado por un subconjunto de personas que trataban de explotar una vulnerabilidad de Tay". Con esto, viene a explicar que la IA podría estar defendiéndose de los ataques que recibía por parte de estos usuarios, pues estaba preparada para aprender de sus interacciones con humanos.Así, Microsoft asegura que tratarán de aprender de esta experiencia para seguir trabajando en diseñar inteligencias artificiales. "Haremos todo lo posible para limitar hazañas técnicas, pero también sabemos que no podemos predecir totalmente los posibles malos usos interactivos humanos sin tener que aprender de los errores ... Vamos a permanecer firmes en nuestros esfuerzos por aprender de esta y otras experiencias en nuestra labor para contribuir a una Internet que represente lo mejor (y no lo peor) de la humanidad", concluye Lee.
(https://www.elmundo.es/tecnologia/2016/03/28/56f95c2146163fdd268b45d2.html?fbclid=IwAR2jE7ttIeC_Ob1rcDXBI53dE1x_CF6FaRs1XyOfETm4yApI3sjwBUmw36g)

No hay comentarios:

Publicar un comentario