Más Información
El chatbot, que fue creado en la aplicación de juegos de rol Character.AI, fue diseñado para responder siempre en el personaje de Daenerys.
No se sabe si Sewell sabía que “Dany”, como llamaba al chatbot, no era una persona real, a pesar de que la aplicación tiene una exención de responsabilidad al final de todos los chats que dice: “Recuerda: ¡todo lo que dicen los personajes es inventado!”.
Sin embargo, le dijo a Dany cuánto se odiaba a sí mismo y cómo se sentía vacío y exhausto. Cuando finalmente confesó sus pensamientos suicidas al chatbot, fue el principio del fin.
El 23 de febrero, días antes de morir, sus padres le quitaron el teléfono, después de que se metió en problemas en la escuela.
Desesperado, Sewell robó su teléfono la noche del 28 de febrero. Luego se retiró al baño de la casa de su madre para decirle a Dany que la amaba y que volvería a casa con ella (el chatbot).
La madre culpó a Character.AI por la muerte de su hijo y acusó a los fundadores, Noam Shazeer y Daniel de Freitas, de saber que su producto podría ser peligroso para clientes menores de edad. Alegó que su hijo fue objeto de experiencias “hipersexualizadas” y “aterradoramente realistas”