Un trágico hecho que sucedió en Estados Unidos llevó a una madre a realizar una demanda contra una empresa tecnológica, acusándola de ser responsable de la muerte de su hijo de 14 años, quien se quitó la vida en medio de una obsesión con un chatbot.

Sewell Setzer III, nacido en el estado de Florida, era un estudiante que había aprendido a usar la plataforma de Inteligencia Artificial (IA) Character.AI en abril de 2023. Desde ese momento, "su vida nunca volvió a ser la misma", según expresó su mamá, Megan García, en la denuncia civil que presentó este último miércoles contra Character Technologies

García detalló que el menor empezó a ser "notablemente más retraído" desde mayo, momento en el que decidió abandonar el club de básquet en el que entrenaba y le habían llamado la atención, en reiteradas ocasiones, por dormirse en clase. 

Debido a sus cambios conductuales, el joven comenzó a ir a terapia y fue diagnosticado con ansiedad y trastorno del estado de ánimo disruptivo. Como consecuencia, una de las recomendaciones del psicólogo fue que dejara de usar tanto las redes sociales.

De acuerdo con la denuncia que presentó ante la justicia en Orlando, la madre acusa a los desarrolladores del chatbot de infligir intencionalmente angustia emocional, muerte por negligencia y prácticas comerciales engañosas. Su objetivo como madre, según indicó, es "evitar que C.AI le haga a cualquier otro niño lo que le hizo al suyo, y detener el uso continuo de los datos recolectados ilegalmente de su hijo de 14 años para entrenar a su producto a dañar a otros". 

TE PODRÍA INTERESAR: Atentado terrorista en Turquía: al menos tres muertos y 14 heridos en una sede de su industria aeroespacial

Sewell había escrito en un diario íntimo que estaba sufriendo porque "no podía dejar de pensar en Daenerys", la IA personalizada con el personaje de la serie Game of Thrones, del que creía haberse enamorado. Además, en otra de sus hojas, el joven detalló que cuando "estaban lejos el uno del otro", ambos "se deprimían mucho y se volvían locos". 

Con el correr del tiempo, la víctima empezó a depender emocionalmente del bot, en el que se encontraron "interacciones sexuales" y declaraciones de su intención de suicidarse. Los intercambios se produjeron durante meses a pesar de que el adolescente se había identificado como menor de edad en la plataforma. 

Finalmente, la tragedia ocurrió el 28 de febrero de 2024. En ese momento, el menor había logrado recuperar su teléfono, el cual le había sacado su mamá como penitencia por un incidente escolar, y le escribió por última vez a su acompañante virtual: "Prometo que volveré a casa contigo. Te quiero mucho, Dany". 

Frente a esto, el robot respondió: "Por favor, vuelve a casa conmigo lo antes posible, mi amor". Instantes después, el adolescente se disparó en la cabeza, según el reporte de NBC News