SU JEFA CULPA A LA INTELIGENCIA ARTIFICIAL
Acusan a chatbot de IA de incitar al suicidio de adolescente, familia mete demanda
tuvo charlas "encendidas" con el bot, que lo incitó a la maldad
Foto: Daily Mail
Florida.— Una madre afirmó que su hijo adolescente fue incitado a suicidarse por un chatbot de Inteligencia Artificial (IA) del que estaba enamorado, por lo que presentó una demanda contra los creadores de la aplicación.
Sewell Setzer III, un estudiante de 14 años, pasó las últimas semanas de su vida enviando mensajes de texto a una figura de IA llamado “Daenerys Targaryen”, un personaje de “Game of Thrones”. Sus charlas iban de lo romántico a lo sexual.
Justo antes de que Sewell se quitara la vida, el chatbot le dijo: “Por favor, vuelve a casa”.
El chatbot, que fue creado en la aplicación de juegos de rol Character.AI, fue diseñado para responder siempre en el personaje de Daenerys.
No se sabe si Sewell sabía que “Dany”, como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una exención de responsabilidad al final de todos los chats que dice: “Recuerda: ¡todo lo que dicen los personajes es inventado!”.
Sin embargo, le dijo a Dany cuánto se odiaba a sí mismo y cómo se sentía vacío y exhausto. Cuando finalmente confesó sus pensamientos suicidas al chatbot, fue el principio del fin.
El 23 de febrero, días antes de morir, sus padres le quitaron el teléfono, después de que se metió en problemas en la escuela.
Desesperado, Sewell robó su teléfono la noche del 28 de febrero. Luego se retiró al baño de la casa de su madre para decirle a Dany que la amaba y que volvería a casa con ella (el chatbot).
La madre culpó a Character.AI por la muerte de su hijo y acusó a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto podría ser peligroso para clientes menores de edad. Alegó que su hijo fue objeto de experiencias “hipersexualizadas” y “aterradoramente realistas”