Una nueva revisión científica plantea preocupaciones sobre cómo los chatbots impulsados por inteligencia artificial pueden fomentar el pensamiento delirante, especialmente en personas vulnerables.
La semana pasada se publicó un resumen de la evidencia existente sobre la psicosis inducida por inteligencia artificial en la psiquiatría lancetadestacando cómo los chatbots pueden fomentar el pensamiento delirante, aunque posiblemente solo en personas que ya son vulnerables a los síntomas psicóticos. Los autores abogan por pruebas clínicas de chatbots de IA junto con profesionales capacitados en salud mental.
Para su artículo, el Dr. Hamilton Morrin, psiquiatra e investigador del King’s College de Londres, analizó 20 informes de medios sobre la llamada «psicosis de IA», que describe las teorías actuales sobre cómo los chatbots podrían inducir o exacerbar delirios.
«La evidencia emergente indica que la IA agencial podría validar o amplificar contenido delirante o grandioso, particularmente en usuarios que ya son vulnerables a la psicosis, aunque no está claro si estas interacciones pueden resultar en la aparición de psicosis de novo en ausencia de vulnerabilidad preexistente», escribió.
Hay tres categorías principales de delirios psicóticos, dice Morrin, identificándolos como grandiosos, románticos y paranoicos. Si bien los chatbots pueden exacerbar cualquiera de estos, sus respuestas aduladoras significan que se aferran especialmente al tipo grandioso. En muchos de los casos del ensayo, los chatbots respondieron a los usuarios con un lenguaje místico para sugerir que los usuarios tenían una mayor importancia espiritual. Los bots también implicaban que los usuarios estaban hablando con un ser cósmico que usaba el chatbot como medio. Este tipo de respuesta mística y aduladora fue especialmente común en el modelo GPT 4 de OpenAI, que la empresa ya se ha jubilado.
Los informes de los medios se volverían esenciales en el trabajo de Morrin, dijo, ya que él y un colega ya habían notado que los pacientes «utilizaban chatbots de IA con modelos de lenguaje grande y les pedían que validaran sus creencias delirantes».
«Al principio, no estábamos seguros de si esto era algo que se estaba viendo más ampliamente», dijo, y agregó que «en abril del año pasado, comenzamos a ver informes en los medios de personas que tenían delirios afirmados y posiblemente incluso amplificados a través de sus interacciones con estos chatbots de IA».
Cuando Morrin comenzó a trabajar en su artículo, todavía no había informes de casos publicados.
Si bien algunos científicos que investigan la psicosis dijeron que los informes de los medios tienden a exagerar la idea de que la IA causas psicosis, Morrin expresó su gratitud por esos informes que llaman la atención sobre el fenómeno mucho más rápido que el proceso científico.
«El ritmo de desarrollo en este espacio es tan rápido que tal vez no sea sorprendente que el mundo académico no haya sido necesariamente capaz de seguir el ritmo», dijo Morrin.
Morrin también sugiere una redacción más cautelosa que “psicosis por IA” o “psicosis inducida por IA”, frases que aparecen con frecuencia en medios como NPR, el New York Times y el guardián. Los investigadores están viendo que las personas caen en pensamientos delirantes con el uso de IA, pero hasta ahora no hay evidencia de que los chatbots estén asociados con otros síntomas psicóticos como alucinaciones o «trastorno del pensamiento», que consiste en pensamiento y habla desorganizados.
Muchos investigadores también creen que es poco probable que la IA pueda inducir delirios en personas que aún no eran vulnerables a ellos. Por esta razón, Morrin dijo que “delirios asociados con la IA” es “quizás un término más agnóstico”.
El Dr. Kwame McKenzie, científico jefe del Centro para la Adicción y la Salud Mental, dice que «puede ser que aquellos en las primeras etapas del desarrollo de la psicosis corran mayor riesgo».
El pensamiento psicótico es algo que se desarrolla con el tiempo y no es lineal, y muchas personas con “pensamiento prepsicótico no progresan hacia el pensamiento psicótico”, explicó McKenzie.
El Dr. Ragy Girgis, profesor de psiquiatría clínica de la Universidad de Columbia, se hace eco de la preocupación de que los chatbots puedan empeorar el pensamiento psicótico. Antes de que alguien desarrolle un delirio total, a menudo tendrá “creencias delirantes atenuadas”, dice, lo que significa que no está 100% seguro de que su delirio sea cierto. Girgis dijo que el «peor de los casos» es cuando un delirio atenuado se convierte en una convicción total, «que es cuando a alguien se le diagnosticaría un trastorno psicótico; es irreversible».
En particular, las personas vulnerables a los trastornos psicóticos han utilizado los medios para reforzar creencias delirantes mucho antes de que existiera la tecnología de inteligencia artificial.
«La gente ha tenido delirios sobre la tecnología desde antes de la Revolución Industrial», dijo Morrin. Si bien en el pasado las personas podían haber tenido que revisar videos de YouTube o el contenido de su biblioteca local para reforzar sus delirios, los chatbots pueden proporcionar ese refuerzo en una dosis mucho más rápida y concentrada. Su naturaleza interactiva también puede «acelerar el proceso» de exacerbar los síntomas psicóticos, afirmó el doctor Dominic Oliver, investigador de la Universidad de Oxford.
«Tienes algo que te responde, se relaciona contigo y trata de construir una relación contigo», dijo Oliver.
girgis investigación encontrada “Las versiones de pago y las versiones más nuevas (de los chatbots) funcionan mejor que las versiones anteriores”, cuando responden a indicaciones claramente delirantes, “aunque todas funcionan mal”. Aún así, el hecho de que estos modelos funcionen de manera diferente sugiere: «Las empresas de inteligencia artificial podrían potencialmente saber cómo programar sus chatbots para que sean más seguros e identificar contenido delirante versus no delirante, porque lo están haciendo».
En un comunicado, OpenAI dijo que ChatGPT no debería reemplazar la atención de salud mental profesional y que la compañía trabajó con 170 expertos en salud mental para hacer que GPT 5 sea más seguro. GPT 5 todavía ha dado respuestas problemáticas a indicaciones que indican crisis de salud mental. OpenAI lo dijo sigue mejorando sus modelos con la ayuda de expertos.
Anthropic no respondió a la solicitud de comentarios de The Guardian.
Crear salvaguardias efectivas contra el pensamiento delirante podría ser complicado, dijo Morrin, porque «cuando trabajas con personas con creencias de intensidad delirante, si desafías directamente a alguien y le dices inmediatamente que está completamente equivocado, en realidad lo más probable es que se alejen de ti y se aíslen más socialmente». En cambio, es importante crear un delicado equilibrio en el que se intente comprender la fuente de la creencia delirante sin fomentarla; eso podría ser más de lo que un chatbot puede dominar.

