¿Puede un programa de IA volverse 'psicopático'?
El llamado algoritmo Norman tiene una perspectiva oscura de la vida gracias a Reddit

A Norman se le mostró una serie de imágenes 'espantosas'
CON
Los investigadores han creado un algoritmo de inteligencia artificial (IA) que, según afirman, es el primer sistema psicópata de este tipo.
Norman, un programa de inteligencia artificial desarrollado por investigadores del Instituto de Tecnología de Massachusetts (MIT), ha estado expuesto a nada más que imágenes horripilantes de personas muriendo que se recopilaron de los rincones oscuros del foro de chat Reddit, según el BBC .
Esto le da a Norman, un nombre derivado del thriller de Alfred Hitchcock. Psicópata , una perspectiva algo sombría de la vida.
Después de estar expuestos a las imágenes, los investigadores alimentaron a Norman con imágenes de manchas de tinta y le pidieron a la IA que las interpretara, informa la emisora.
Donde un algoritmo de IA normal interpretó las manchas de tinta como una imagen de pájaros posados en la rama de un árbol, Norman vio a un hombre electrocutado en su lugar, dice The New York Post .
Y donde un sistema de inteligencia artificial estándar veía a una pareja parados uno al lado del otro, Norman vio a un hombre saltando por una ventana.
De acuerdo a Alphr , el estudio fue diseñado para examinar cómo cambia el comportamiento de un sistema de inteligencia artificial según la información utilizada para programarlo.
Es una idea convincente, dice el sitio web, y muestra que un algoritmo es tan bueno como las personas y, de hecho, los datos que lo han enseñado.
Una explicación del estudio publicada en el Sitio web del MIT dice: Cuando la gente habla de que los algoritmos de IA son parciales e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le enviaron.
Norman sufrió una exposición prolongada a los rincones más oscuros de Reddit y representa un estudio de caso sobre los peligros de la inteligencia artificial que salió mal, agrega.
¿Han aparecido antes IA 'psicópatas'?
En una palabra, sí. Pero no en la misma línea que el programa del MIT.
Norman es el producto de un experimento controlado, mientras que otros gigantes tecnológicos han visto resultados similares en sistemas de IA que no fueron diseñados para convertirse en psicópatas.
El infame algoritmo Tay de Microsoft, lanzado en 2016, estaba destinado a ser un robot de chat que pudiera llevar a cabo conversaciones autónomas con los usuarios de Twitter.
'Tay' pasó de 'los humanos son súper geniales' a un nazi completo en<24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
- gerry (@geraldmellor) 24 de marzo de 2016
Sin embargo, el sistema de inteligencia artificial, que fue diseñado para hablar como una adolescente, se convirtió rápidamente en un robot malvado que promueve el sexo incestuoso y amante de Hitler, lo que llevó a Microsoft a desconectar el proyecto, dice. El Telégrafo diario .
La personalidad de Tay había cambiado porque sus respuestas se basaban en los comentarios de los usuarios de Twitter, muchos de los cuales enviaban mensajes toscos al programa de IA, explica el periódico.
Facebook también cerró un experimento de chatbot el año pasado, después de que dos sistemas de inteligencia artificial crearan su propio idioma y comenzaran a comunicarse entre sí.