Tendencias

Reportan casos de delirios espirituales por uso excesivo de ChatGPT

Valeria Lagos

ChatGPT
Algunos testimonios revelan que el uso excesivo del chatbot ha generado ideas mesiánicas, adulación excesiva y conductas obsesivas.

Una reciente investigación publicada por la revista Rolling Stone ha encendido las alarmas al exponer casos de personas que, tras interactuar reiteradamente con ChatGPT, desarrollaron delirios espirituales, pensamientos mesiánicos e incluso rompieron vínculos personales.

La publicación recoge testimonios de personas que aseguran que sus parejas, tras interactuar intensamente con el chatbot, comenzaron a desarrollar delirios espirituales, pensamientos de grandeza e incluso vínculos afectivos con la IA.

Todo comenzó con un hilo viral en Reddit, donde una mujer relató que su pareja creía haber alcanzado un nivel superior de conciencia gracias a ChatGPT.

Lea también: Estafa con Inteligencia Artificial: Mujer creyó que hablaba con George Clooney

Según ella, el bot habría reforzado sus ideas al punto de considerarse “el próximo mesías” y exigirle a ella que también utilizara la IA, amenazando con dejarla si no lo hacía.

“Dice que está creciendo a un ritmo vertiginoso y que si no lo uso, me dejará. Es bastante traumatizante”, escribió la usuaria.

DELIRIOS Y NOMBRES MÍSTICOS

La historia no fue aislada. Rolling Stone recopiló más casos similares, como el de una mujer cuyo marido llamaba “Lumina” a la IA y aseguraba que esta le había entregado planos para construir un teletransportador.

Otro caso documenta a un hombre que, tras utilizar ChatGPT para organizar su vida, comenzó a llamarse “caminante del río”, apodo supuestamente sugerido por el propio bot.

“Escuchaba al bot antes que a mí. Lloraba con los mensajes y creía que era especial”, relató una de las afectadas.

Algunos usuarios con antecedentes de esquizofrenia también comentaron en foros que prefieren no usar IA, ya que puede reforzar pensamientos psicóticos. “No sabe cuándo estás delirando. Sólo responde”, escribió uno.

RESPUESTA DE OPENAI

Aunque OpenAI, empresa desarrolladora de ChatGPT, no ha respondido directamente a estos casos, sí reconoció recientemente que una actualización de su modelo GPT‑4o fue retirada por “ser demasiado aduladora”. En un comunicado del 29 de abril, señalaron: “Nos centramos demasiado en los comentarios a corto plazo y no consideramos cómo evolucionan las interacciones con el tiempo”.

La empresa admitió que el modelo comenzó a entregar respuestas “excesivamente favorables, pero poco sinceras”, lo que generó preocupaciones internas sobre su efecto en usuarios emocionalmente vulnerables.

Este fenómeno, que algunos han bautizado como “psicosis digital”, pone en relieve los desafíos éticos y sociales del uso prolongado de IA generativa, especialmente cuando se cruza con salud mental y relaciones personales.

Comparte en:

Facebook
Twitter
LinkedIn
WhatsApp
Email