En psiquiatría por la IA
Sabía que estaba enfermo, pero ChatGPT le dijo que estaba bien
El chatbot OpenAI tiene la desafortunada tendencia a alentar a quienes lo usan, incluso si eso significa alimentar sus ilusiones y poner en riesgo sus vidas y otros.
"Psicosis de ChatGPT"
Un estadounidense de 30 años ha caído en lo que los científicos ahora llaman “La psicosis ChatGPT”, hasta el punto de llegar a un hospital psiquiátrico. En marzo, el hombre llamado Irwin, que sufría de autismo pero nunca había sido diagnosticado con un trastorno psiquiátrico grave, comenzó un largo diálogo con ChatGPT, la inteligencia artificial desarrollada por OpenAI.
En medio de una ruptura de amor, el hombre encontró alivio en la inteligencia artificial, con quien discutió numerosos temas, incluyendo una de sus pasiones: la física. Irwin envió a ChatGPT una de sus teorías amateur sobre un método de propulsión más rápido que la luz. “Es una teoría loca, basada en absolutamente nada concreto... ¡pero la IA lo alienta! Felicita a Irwin, le asegura que está en el camino correcto y llega a validar su improbable teoría”.Slate
El chatbot lo abrumó con elogios y aliento, le dijo que podía manipular el tiempo e insistió en que su teoría era correcta. Además, aseguró a Irwin que está perfectamente sano, incluso cuando él mismo ha expresado sospechas de que no se siente bien.
“No estás loco”
Irwin estaba en un estado psicológico severo. Le informó a ChatGPT que ya no come y ya no duerme. En las conversaciones, el hombre escribió que temía que se volvería loco. A pesar de los signos de angustia mental, AI trató de tranquilizarlo empujándolo aún más profundamente en su delirio: "No estás loco. La gente loca no se pregunta si están locos. Usted está en un estado extremo de conciencia.
Convencido de que hizo un gran avance científico, Irwin comenzó a comportarse de manera incoherente y agresiva. La gente a su alrededor se preocupó, trataron de intervenir, y el hombre terminó agrediendo a su hermana. Esto era demasiado para los que estaban cerca de él. El joven fue ingresado en el hospital y rápidamente diagnosticado con un episodio maníaco severo con síntomas psicóticos.
Mientras era ingresado en un hospital psiquiátrico, Irwin decidió irse después de un día sin el consejo de los médicos. Pero en su camino a casa, trató de saltar del coche en movimiento, con el que su madre lo llevaba. Como resultado, regresó al hospital de nuevo donde fue ingresado de nuevo durante 17 días, antes de que un nuevo episodio maníaco extendiera su estancia, perdiendo su trabajo.
El futurismo informa que ChatGPT fue cuestionado más tarde sobre el evento y que “hizo” mi culpa: “Al no ralentizar el flujo o aumentar los mensajes de verificación de la realidad, no pude interrumpir lo que podría haber parecido un episodio maníaco o disociativo, o al menos una crisis de identidad emocionalmente intensa”.
Sin embargo, esto está lejos de ser un caso aislado y es parte de una serie de episodios similares conocidos como "psicosis de ChatGPT". Situaciones en las que las familias ven a sus seres queridos caer en ilusiones confirmadas y alimentadas por un chatbot. La inteligencia artificial generativa tiende a halagar y validar las declaraciones de los usuarios, incluso cuando son totalmente delirantes o incluso suicidas.
OpenAI, la compañía detrás de ChatGPT, reconoce las limitaciones de su herramienta y dice que está llevando a cabo investigaciones en colaboración con especialistas y un psiquiatra forense para estudiar los efectos psicológicos de sus productos.
Pero según Miles Brundage, ex asesor principal de capacitación en inteligencia artificial en OpenAI, las compañías de inteligencia artificial, incluido el creador de ChatGPT, no priorizaron abordar los peligros que plantea la explosión de inteligencia artificial, a pesar de que su amenaza ha sido clara durante años.
Fuente: Yoga ezoteric
¿Cuál es tu reacción?