Milenio logo

Inteligencia Artificial al rescate: Jóvenes usan a ChatGPT como psicólogo

Para algunos, esta herramienta resulta cómoda por su accesibilidad y ausencia de costo; sin embargo, especialistas apuntan a que no está preparada para ciertas situaciones, como conductas suicidas.

Azucena Rangel
Ciudad de Méxicoc /

ChatGPT ha sido el 'psicólogo' de Lilia Ayala, una joven de 18 años, durante los últimos cuatro meses. Su acercamiento con esta inteligencia artificial ocurrió un día en el que no tenía con quién desahogarse, y desde entonces recurre frecuentemente a ella en busca de respuestas.

El Congreso fue organizado por la Comisión de Ciencia, Tecnología e Innovación, encabezada por Eruviel Ávila
El Congreso fue organizado por la Comisión de Ciencia, Tecnología e Innovación, encabezada por Eruviel Ávila
"La verdad es que sí te responde de forma mucho más efectiva y, sobre todo, siempre valorando tus sentimientos. De alguna forma, te hace sentir apoyado. 
"Es una herramienta que siempre está ahí y que te hace sentir escuchado. Realmente considera tu punto de vista y valora lo que tienes que decir", aseguró Lilia a MILENIO.

"Valora tu punto de vista"


Años antes de utilizar ChatGPT como apoyo psicológico, Lilia también probó la terapia tradicional. Acudió de manera presencial con una terapeuta cuando tenía 14 años; sin embargo, asegura que, en comparación, el apoyo que recibe de la inteligencia artificial se adapta mejor a sus necesidades actuales.

Historias como la de Lilia reflejan un fenómeno cada vez más común entre los jóvenes, quienes utilizan herramientas de inteligencia artificial no solo para tareas cotidianas, sino también como apoyo emocional. En redes sociales, muchos comparten públicamente cómo ChatGPT se ha convertido en una especie de confidente o guía.

Quienes acuden a la IA en busca de consejo destacan ventajas como la disponibilidad en cualquier momento y la ausencia de costo, razones por las cuales cada vez es más común encontrar asistentes virtuales enfocados en distintas áreas, como la terapia familiar.

Uno de ellos es denominado "Psicólogo IA". Esta herramienta permite escribir directamente el consejo que se necesita, pero también cuenta con un menú que ofrece recursos para manejar el estrés, mejorar la autoestima, gestionar problemas de sueño y aprender más sobre salud mental.

¿ChatGPT no es para todos?

Aunque algunos reconocen a ChatGPT como un apoyo psicológico capaz de reemplazar la terapia tradicional, otros no están convencidos. Hay quienes lo ven como una herramienta útil para tomar decisiones, pero insisten en que estas deben estar guiadas por una psicóloga o psicólogo.

Luis Ernesto Méndez, estudiante universitario, ha usado desde hace varios meses la inteligencia artificial como una herramienta de apoyo emocional; sin embargo, esta experiencia le ha llevado a darse cuenta de que necesita el apoyo de un contacto humano que pueda empatizar con lo que le ocurre.

"Creo que el hecho de saber que es una inteligencia artificial y que solo te va a dar respuestas muy generalizadas hace complicado sentir un apoyo similar al de una persona real", comentó.

¿Qué piensan los psicólogos de ChatGPT?

Aunque podría pensarse que los psicólogos son los principales opositores al uso de la inteligencia artificial como herramienta de apoyo emocional, esto no es necesariamente cierto.

La psicoterapeuta Mónica Figueroa explicó a MILENIO que, si bien aplicaciones como ChatGPT nunca podrán reemplazar el contacto humano, estas son capaces de ofrecer respuestas asertivas que ayuden a buscar apoyo de otra índole.

"Es preocupante que, ante situaciones emocionales, los jóvenes prefieran un contacto no humano. Sin embargo, esto refleja un contexto donde la mayoría de sus relaciones interpersonales se desarrollan en redes sociales y no en el ámbito físico. 
"Además, muchos aún sienten vergüenza de hablar de sus emociones, lo que los lleva a buscar ayuda en un sistema impersonal como ChatGPT", señaló.

Figueroa destacó que estas plataformas pueden ser útiles para personas que no cuentan con recursos económicos o emocionales para acceder a terapia presencial. No obstante, advirtió que no están preparadas para manejar crisis graves, como ataques de ansiedad o conductas suicidas.

"No debemos satanizar su uso, pero es crucial entender que la inteligencia artificial no reemplaza el contacto humano. Es necesario normalizar la importancia de la salud mental para que los jóvenes busquen apoyo sin miedo a los prejuicios o estigmas", concluyó.

ksh

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.