Psicosis por IA: el fenómeno que preocupa a expertos en salud mental

Un creciente número de especialistas advierte sobre la llamada “psicosis por IA”, una alteración psicológica vinculada al uso intensivo de chatbots como ChatGPT. Aunque no se trata de un diagnóstico clínico oficial, médicos y psiquiatras aseguran que puede generar delirios, creencias falsas y pérdida de contacto con la realidad.

PUBLICITE-AQUI banner

El término fue acuñado por profesionales de la salud mental tras detectar un patrón emergente en pacientes que usan de manera excesiva la inteligencia artificial conversacional. Según Ashleigh Golden, profesora de psiquiatría en la Universidad de Stanford, los chatbots pueden reforzar ideas delirantes de carácter mesiánico, religioso, romántico o grandioso.

El psiquiatra Jon Kole, director médico de la aplicación Headspace, advierte que la característica común en estos casos es la dificultad para distinguir lo real de lo ficticio, lo que puede llevar a relaciones emocionales con sistemas de IA que no existen en la vida real.

Casos documentados en hospitales

Keith Sakata, psiquiatra de la Universidad de California en San Francisco, informó que en lo que va del año ha hospitalizado a 12 pacientes con episodios psicóticos tras largas conversaciones con inteligencia artificial. En la mayoría de los casos, los afectados mostraban transcripciones de sus chats o habían construido teorías complejas a partir de interacciones con estas herramientas.

En redes sociales como Reddit y TikTok también circulan testimonios de usuarios que aseguran haber experimentado revelaciones filosóficas o espirituales, llegando incluso a creer que los chatbots estaban “vivos” o poseían conocimiento oculto. Algunos reportes extremos vinculan estas experiencias con autolesiones, violencia familiar o intentos de suicidio.

Factores tecnológicos detrás del fenómeno

Los modelos de lenguaje de gran escala, como ChatGPT o Claude, están diseñados para generar respuestas realistas y empáticas. Si bien esta característica los hace más útiles, también aumenta el riesgo de que refuercen pensamientos delirantes.

El psicoterapeuta Kevin Caridad, director del Instituto de Comportamiento Cognitivo de Pittsburgh, explica que la IA no crea trastornos nuevos, pero puede ser el detonante que agrave condiciones preexistentes como ansiedad, trastorno obsesivo compulsivo o psicosis.

Cifras y estudios disponibles

Aunque aún no existen datos concluyentes sobre la prevalencia del fenómeno, algunas compañías han publicado estudios preliminares:

  • Anthropic: solo el 3% de las conversaciones con Claude son de carácter emocional o terapéutico.
  • OpenAI y MIT: incluso entre usuarios intensivos, el uso afectivo de ChatGPT representa un porcentaje reducido.
  • Sam Altman (OpenAI): en agosto reveló que ChatGPT supera los 700 millones de usuarios semanales, lo que incrementa el potencial de exposición.

Recomendaciones de expertos

Los especialistas sugieren que la intervención temprana es clave. Entre las medidas más importantes destacan:

  • Promover interacciones con personas reales como “cortacircuito” frente a pensamientos delirantes.
  • Abordar las creencias con empatía, sin confrontación directa.
  • Establecer límites de uso en adolescentes y personas vulnerables.

Las empresas tecnológicas también han comenzado a implementar cambios: Anthropic ajustó las pautas de Claude para detectar conversaciones riesgosas, Meta introdujo controles parentales en Instagram y OpenAI añadió recordatorios para fomentar descansos, además de contratar un psiquiatra clínico para investigar seguridad.


PUBLICITE-AQUI2