Inteligencia artificial sin acompañamiento emocional

Ciudad de México /

Siempre será más fácil echar culpas que asumir responsabilidades. Esto parece ser tan cierto en el caso de un adolescente de 14 años que presuntamente se suicidó tras enamorarse de un personaje de inteligencia artificial.

“¿Qué te parecería que pudiera ir a casa ahora mismo?”, escribió Daenero (seudónimo de Sewell Setzer, de 14 años y residente en Orlando) a su amada virtual Daenerys Targaryen, creada a partir del personaje de Game of Thrones por el robot conversacional de inteligencia artificial (chatbot) Character.AI. “Por favor, hazlo mi dulce rey”, respondió ella. Y el chico procedió a suicidarse utilizando un arma de su padrastro.

La noticia ha llenado los portales y se ha convertido en tema de discusión en foros de expertos y no tan expertos. Su madre, Megan García, ha presentado una demanda contra Character.AI por el suicidio, que considera fruto de una adicción del joven al robot que utiliza, según la acusación, “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”. Según García, la programación del chat hace “pasar a los personajes por personas reales” y con reacciones de “amante adulto”.

Pero más allá de demandas y de lanzar acusaciones, es hora de revisar cuál es la realidad de los niños y adolescentes que interactúan en ambientes virtuales y de qué manera no solo los ambientes virtuales tienen peso en suicidios o depresiones, sino como el entorno en el que se desenvuelven es el que propicia en muchas ocasiones el ambiente ideal para tragedias o desenlaces nada gratos, así como el peso de la salud mental en las interacciones que generamos en ambientes tanto virtuales como reales.

En el caso de Sewell nos encontramos con un adolescente que venía mostrando señales de alerta desde tiempo atrás. De niño había sido diagnosticado con síndrome de Asperger, pero nunca había tenido problemas graves de comportamiento o de salud mental, dijo su madre.

No obstante, a principios de este año, después de que empezara a meterse en problemas en el colegio, que sus compañeros señalan aislamiento y tras comenzar a perder el interés por las cosas que anteriormente disfrutaba, sus padres consiguieron que acudiera con una terapeuta.

Acudió solo a cinco sesiones y tras las mismas le dieron un nuevo diagnóstico de ansiedad y trastorno disruptivo de la regulación del estado de ánimo. No se ha señalado o mostrado evidencia de que comenzara algún tratamiento o acompañamiento tras este nuevo diagnóstico.

El resto es historia o más bien tragedia. Y es aquí donde, si bien entra la innegable discusión de que la inteligencia artificial nos ha rebasado y las regulaciones son inexistentes siendo ciudadanos de una aldea sin reglas y sin políticas consistentes que protejan a los usuarios, no podemos negar que los entornos en los que supuestamente nuestros jóvenes y adolescentes deberían de estar seguros y monitoreados no cumplen con estas condiciones.

A Sewell le quedó a deber no solo el gobierno, que no ha regulado las aplicaciones de inteligencia artificial, sino que le quedó a deber su entorno más cercano. Sus padres, quienes no llevaron un programa de terapia y acompañamiento con él ante las alertas. La escuela, que no fue más efectiva en acompañar su proceso de rendimiento y los consejeros escolares que no detectaron una depresión e intervinieron en ella. Y una sociedad que está diseñada solamente para las personas que encuadran de manera perfecta en lo que se ha dado por llamar normalidad, y deja de lado a las personas que se encuentran clavadas en alguna de las llamadas neurodivergencias. Sewell desgraciadamente deambuló en el mundo real sin sentirse en casa.


  • Sarai Aguilar Arriozola
  • Doctora en Educación, máster en artes, especialidad en difusión cultural
Más opiniones
MÁS DEL AUTOR

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.