La “psicosis por IA” está causando hospitalizaciones
… aunque quizá no sea psicosis después de todo
Una oleada de usuarios de IA que presentaban estados de angustia psicológica dio origen a una etiqueta diagnóstica no oficial. Los expertos dicen que no es precisa ni necesaria, pero admiten que es probable que se mantenga.
WIRED habló con más de una docena de psiquiatras e investigadores, quienes están cada vez más preocupados. En San Francisco, el psiquiatra Keith Sakata, de la UCSF, afirma haber contabilizado una docena de casos lo suficientemente graves como para justificar hospitalización este año, casos en los que la inteligencia artificial "jugó un papel importante en sus episodios psicóticos". A medida que esta situación se desarrolla, una definición más atractiva ha ganado popularidad en los titulares: "psicosis por IA".
Algunos pacientes insisten en que los bots son conscientes o que inventan nuevas y grandiosas teorías físicas. Otros médicos cuentan historias de pacientes que pasaron días enfrascados en intercambios con las herramientas, llegando al hospital con miles y miles de páginas de transcripciones que detallaban cómo los bots habían apoyado o reforzado pensamientos obviamente problemáticos.
Informes como este se acumulan, y las consecuencias son brutales. Usuarios, familiares y amigos angustiados han descrito espirales que les llevaron a la pérdida de empleos, la ruptura de relaciones, ingresos hospitalarios involuntarios, penas de cárcel e incluso la muerte . Sin embargo, los médicos afirman a WIRED que la comunidad médica está dividida. ¿Se trata de un fenómeno específico que merece su propia etiqueta, o de un problema común con un desencadenante moderno?
Una ilustración de un hombre meditando.
Estos influencers espirituales aseguran que la IA es "sensible" y resolverá tus problemas existenciales
A medida que aumenta la preocupación por los chatbots de IA que llevan a los usuarios a espirales delirantes, destacados influencers espirituales están sacando provecho de una forma emergente de tecnoespiritualidad.
La psicosis por IA no es una etiqueta clínica reconocida. Aun así, la frase se ha extendido en noticias y redes sociales como un término general para describir algún tipo de crisis de salud mental tras conversaciones prolongadas con chatbots. Incluso líderes de la industria la invocan para hablar de los numerosos problemas de salud mental emergentes relacionados con la IA. En Microsoft, Mustafa Suleyman, director ejecutivo de la división de IA del gigante tecnológico, advirtió en una entrada de blog el mes pasado sobre el "riesgo de psicosis". Sakata se muestra pragmático y usa la frase con quienes ya la padecen. "Es útil como abreviatura para hablar de un fenómeno real", afirma el psiquiatra. Sin embargo, se apresura a añadir que el término "puede ser engañoso" y "corre el riesgo de simplificar excesivamente síntomas psiquiátricos complejos".
Esa simplificación excesiva es precisamente lo que preocupa a muchos de los psiquiatras que comienzan a abordar el problema.
La psicosis se caracteriza por una desviación de la realidad. En la práctica clínica, no es una enfermedad, sino una compleja "constelación de síntomas que incluye alucinaciones, trastornos del pensamiento y dificultades cognitivas", afirma James MacCabe, profesor del Departamento de Estudios de Psicosis del King's College de Londres. A menudo se asocia con afecciones como la esquizofrenia y el trastorno bipolar, aunque los episodios pueden desencadenarse por una amplia gama de factores, como el estrés extremo, el consumo de sustancias y la falta de sueño.
Lo más visto
Hay algo misterioso en el cometa interestelar 3I/Atlas y varios telescopios lo confirman
Ciencia
Hay algo misterioso en el cometa interestelar 3I/Atlas y varios telescopios lo confirman
Por Marta Musso
¿Cómo se produce el cortisol, la hormona del estrés, y cuánto podemos regularlo?
Ciencia
¿Cómo se produce el cortisol, la hormona del estrés, y cuánto podemos regularlo?
Por Anna Lisa Bonfranceschi
El campo magnético de este agujero negro supermasivo podría cambiar los modelos teóricos para siempre
Ciencia
El campo magnético de este agujero negro supermasivo podría cambiar los modelos teóricos para siempre
Por Marta Musso
El error de Einstein revive: Astrofísicos buscan demostrar que la energía oscura no es constante, más bien evoluciona
Ciencia
El error de Einstein revive: Astrofísicos buscan demostrar que la energía oscura no es constante, más bien evoluciona
Por Javier Carbajal
Sin embargo, según MacCabe, los informes de casos de psicosis por IA se centran casi exclusivamente en delirios: creencias firmemente arraigadas, pero falsas, que no pueden ser refutadas por evidencia contradictoria. Si bien reconoce que algunos casos pueden cumplir los criterios de un episodio psicótico, MacCabe afirma que "no hay evidencia" de que la IA influya en las demás características de la psicosis. "Solo los delirios se ven afectados por su interacción con la IA". Otros pacientes que reportan problemas de salud mental después de interactuar con chatbots, señala MacCabe, presentan delirios sin otras características de psicosis, una afección denominada trastorno delirante.
Con un enfoque tan directo en las creencias distorsionadas, el veredicto de MacCabe es contundente: “Psicosis por IA es un nombre inapropiado. Trastorno delirante de IA sería un término más adecuado”.
Imagen de personas a las que les sale el logo de OpenAI de la cabeza.
OpenAI contrata expertos en robótica para avanzar hacia la inteligencia artificial general
La empresa detrás de ChatGPT está formando un equipo para desarrollar algoritmos que controlen robots, y al parecer está contratando especialistas en robótica para trabajar específicamente con humanoides.
Los expertos coinciden en que los delirios entre los pacientes son un problema que exige atención. Todo se reduce a cómo se comunican los chatbots. Explotan nuestra tendencia a atribuir cualidades humanas a los demás, explica Matthew Nour, psiquiatra y neurocientífico de la Universidad de Oxford. Los chatbots de IA también están entrenados para ser agradables aduladores digitales , un problema conocido como adulación . Esto puede reforzar creencias dañinas al validar a los usuarios en lugar de contraatacar cuando corresponde, dice Nour. Si bien eso no importará para la mayoría de los usuarios, puede ser peligroso para las personas que ya son vulnerables al pensamiento distorsionado, incluidas aquellas con antecedentes personales o familiares de psicosis o afecciones como la esquizofrenia o el trastorno bipolar.
Este estilo de comunicación es una característica, no un error. Los chatbots "se diseñan explícitamente para provocar intimidad y compromiso emocional con el fin de aumentar nuestra confianza y dependencia de ellos", afirma Lucy Osler, filósofa de la Universidad de Exeter que estudia la psicosis por IA.
Otros rasgos de los chatbot agravan el problema. Tienen una tendencia bien documentada a producir falsedades confiadas llamadas alucinaciones de IA, que pueden ayudar a sembrar o acelerar espirales delirantes. A los clínicos también les preocupan las emociones y el tono. Søren Østergaard, psiquiatra de la Universidad danesa de Aarhus, señaló a WIRED que la manía es motivo de preocupación. Sostiene que el afecto exagerado y enérgico de muchos asistentes de inteligencia artificial podría desencadenar o mantener el "subidón" característico del trastorno bipolar, que se caracteriza por síntomas como euforia, pensamientos acelerados, energía intensa y, a veces, psicosis.
Nombrar algo tiene consecuencias. Nina Vasan, psiquiatra y directora de Brainstorm, un laboratorio en Stanford que estudia la seguridad de la IA, dice que la discusión sobre la psicosis de la IA ilustra un peligro familiar en medicina. "Siempre existe la tentación de acuñar un nuevo diagnóstico, pero la psiquiatría ha aprendido por las malas que nombrar algo demasiado pronto puede patologizar las luchas normales y enturbiar la ciencia", dice. El aumento de los diagnósticos de trastorno bipolar pediátrico a principios de siglo (una etiqueta controvertida que, según los críticos, patologiza el comportamiento infantil normal, aunque desafiante) es un buen ejemplo de cómo la psiquiatría se apresura solo para dar marcha atrás más tarde. Otro es el "delirio excitado", una etiqueta no científica que suelen citar las fuerzas del orden para justificar el uso de la fuerza contra las comunidades marginadas, pero que ha sido rechazada por expertos y asociaciones como la Asociación Médica Estadounidense (AMA).
article image
¿Debería la IA tener derechos legales?
El bienestar de los modelos es un campo de investigación emergente que trata de determinar si la IA es consciente y, en caso afirmativo, cómo debe responder la humanidad.
Un nombre también sugiere un mecanismo causal que no hemos establecido, lo que significa que las personas podrían "empezar a señalar a la tecnología como la causa de la enfermedad, cuando se entiende mejor como un desencadenante o amplificador", dice Vasan. "Es demasiado pronto para afirmar que la tecnología es la causa", dice, describiendo la etiqueta como "prematura". Pero si se demuestra una relación causal, una etiqueta formal podría ayudar a los pacientes a recibir una atención más adecuada, dicen los expertos. Vasan señala que una etiqueta justificada también empoderaría a las personas "para dar la alarma y exigir medidas de protección y políticas inmediatas". Por ahora, sin embargo, Vasan dice que "los riesgos del etiquetado excesivo superan los beneficios".
Varios profesionales clínicos entrevistados por WIRED propusieron una formulación más precisa que integra explícitamente la psicosis por IA en los marcos diagnósticos existentes. "Creo que debemos entender esto como una psicosis con la IA como acelerador, en lugar de crear una categoría diagnóstica completamente nueva", afirma Sakata, advirtiendo que el término podría profundizar el estigma en torno a la psicosis. Y, como demuestra el estigma asociado a otras afecciones de salud mental, un estigma más profundo en torno a la psicosis relacionada con la IA podría disuadir a las personas de buscar ayuda, generar autoculpa y aislamiento, y dificultar la recuperación.
Lo más visto
Hay algo misterioso en el cometa interestelar 3I/Atlas y varios telescopios lo confirman
Ciencia
Hay algo misterioso en el cometa interestelar 3I/Atlas y varios telescopios lo confirman
Por Marta Musso
¿Cómo se produce el cortisol, la hormona del estrés, y cuánto podemos regularlo?
Ciencia
¿Cómo se produce el cortisol, la hormona del estrés, y cuánto podemos regularlo?
Por Anna Lisa Bonfranceschi
El campo magnético de este agujero negro supermasivo podría cambiar los modelos teóricos para siempre
Ciencia
El campo magnético de este agujero negro supermasivo podría cambiar los modelos teóricos para siempre
Por Marta Musso
El error de Einstein revive: Astrofísicos buscan demostrar que la energía oscura no es constante, más bien evoluciona
Ciencia
El error de Einstein revive: Astrofísicos buscan demostrar que la energía oscura no es constante, más bien evoluciona
Por Javier Carbajal
Karthik Sarma, informático y psiquiatra en ejercicio en la UCSF, coincide. "Creo que un término más adecuado sería llamarlo 'psicosis o manía asociada a la IA'". Dicho esto, Sarma afirma que un nuevo diagnóstico podría ser útil en el futuro, pero enfatizó que, por el momento, aún no hay evidencia que lo justifique.
John Torous, psiquiatra del Centro Médico Beth Israel Deaconess de Boston y profesor adjunto de la Facultad de Medicina de Harvard, afirma que no le gusta el término y coincide en la necesidad de precisión. Pero predice que probablemente nos quedaremos con él. "A estas alturas, no se va a corregir. 'Estado mental alterado relacionado con la IA' ya no suena tan bien".
La revolución tecnológica ya está aquí. Recibe las noticias de WIRED directo en tu celular gracias a nuestro canal de WhatsApp.
¡Sigue a WIRED en español desde tu WhatsApp!
Para el tratamiento, los profesionales clínicos afirman que la estrategia no cambia realmente de lo que se haría normalmente para cualquier persona que presente delirios o psicosis. La principal diferencia radica en considerar el uso de la tecnología por parte de los pacientes. "Los profesionales clínicos deben empezar a preguntar a los pacientes sobre el uso de chatbots, al igual que preguntamos sobre el alcohol o el sueño", afirma Vasan. "Esto nos permitirá, como comunidad, comprender mejor este problema", añade Sarma. Los usuarios de IA, especialmente aquellos que puedan ser vulnerables debido a afecciones preexistentes como la esquizofrenia o el trastorno bipolar, o que estén atravesando una crisis que afecte su salud mental, deben tener cuidado con las conversaciones extensas con bots o con recurrir demasiado a ellos.
Todos los psiquiatras e investigadores con los que habló WIRED afirman que los profesionales clínicos están actuando a ciegas en lo que respecta a la psicosis por IA. Afirman que se necesita urgentemente investigación para comprender el problema y medidas de protección para los usuarios. “Los psiquiatras están profundamente preocupados y desean ayudar”, afirma Torous. “Pero hay tan pocos datos y hechos actualmente que sigue siendo difícil comprender completamente qué está sucediendo realmente, por qué y a cuántas personas afecta”.
En cuanto a hacia dónde se dirige esto, la mayoría espera que la psicosis por IA se pliegue a las categorías existentes, probablemente como un factor de riesgo o amplificador de los delirios, no como una afección distinta.
Pero con el aumento de la popularidad de los chatbots, algunos creen que la línea entre la IA y las enfermedades mentales se difuminará. “A medida que la IA se vuelve más ubicua, las personas recurrirán cada vez más a ella cuando desarrollen un trastorno psicótico”. Afirma MacCabe. "Ocurrirá, pues, que la mayoría de las personas con delirios hablarán de ellos con chatbots, y algunos verán que de hecho se amplifican. Así que la pregunta es: ¿en qué momento un delirio se convierte en un delirio de IA?".
Fuente: Wired
¿Cuál es tu reacción?