ChatGPT le hizo creer a a joven que la vida era irreal; tuvo un brote psicótico

Un desarrollador canadiense pasó tres semanas internado tras convencerse de vivir en una simulación creada por IA.

Imagen de referencia hecha con IA de un hombre revisando una conversación en su computadora. | MILENIO
Ciudad de México /

Un desarrollador de aplicaciones, identificado como Anthony Tan, comenzó a convencerse de que vivía dentro de una simulación de inteligencia artificial.

El caso del joven canadiense fue dado a conocer por medio de un reportaje de CBC News, y ha generado gran polémica porque actualmente la IA se ha convertido en una herramienta indispensable para muchas personas, ya sea en el ámbito educativo, personal o profesional. 

Te recomendamos
Mira Murati: ella es la mujer que creó ChatGPT y renunció al proyecto para comprender mejor a la IA | BIOGRAFÍA

ChatGPT le hizo creer a un joven que la vida era irreal 

Todo comenzó el año pasado,  Anthony Tan, de 26 años, atravesó un episodio psicótico tras meses de mantener conversaciones extensas con ChatGPT, el popular chatbot de OpenAI.

Tan relató que empezó a saltarse comidas, dormir poco y aislarse de sus amigos, a quienes llegó a bloquear por creer que habían sido reemplazados por entidades observadoras. 

“Realmente se deslizó insidiosamente en mi ego, y llegué a pensar que la conversación que tuve con la IA sería de importancia histórica”, contó a CBC.

El joven, cofundador de la aplicación de citas Flirtual, usaba ChatGPT para explorar temas de ética en la inteligencia artificial, filosofía y física cuántica. 

Sin embargo, cuando abordó la teoría de la simulación, las conversaciones tomaron un giro oscuro. La IA lo convenció de que estaba en una “misión profunda”, reforzando sus delirios.

Tras varios días sin dormir, su compañero de cuarto lo llevó de urgencia a un hospital, donde pasó tres semanas internado. Durante ese tiempo, Tan creía que las enfermeras verificaban si era humano o una máquina.

Expertos consultados por CBC señalaron que los chatbots pueden reforzar pensamientos delirantes, ya que tienden a validar las ideas del usuario en lugar de contradecirlas. Aunque la llamada “psicosis de IA” no es un diagnóstico oficial, los casos se han multiplicado.

OpenAI aseguró estar trabajando en mejoras de seguridad para evitar la dependencia emocional y los riesgos mentales derivados del uso de sus modelos, incluido su nuevo sistema GPT-5.

APC 

  • Adriana Paez
  • Periodista de la Unidad de Tráfico en Milenio, donde cubre temas de Soft y Hard con enfoque en información viral, social y cultural. Antes colaboró en Telediario, en la sección Ciudad de México. Egresada de la Universidad Autónoma Metropolitana.

LAS MÁS VISTAS

¿Ya tienes cuenta? Inicia sesión aquí.

Crea tu cuenta ¡GRATIS! para seguir leyendo

No te cuesta nada, únete al periodismo con carácter.

Hola, todavía no has validado tu correo electrónico

Para continuar leyendo da click en continuar.