ChatGPT puede inducir suicidio, manía y psicosis en usuarios en crisis, según especialistas

0
281

Un estudio de la Universidad de Stanford alertó sobre los peligros de usar inteligencia artificial como soporte emocional durante episodios graves de salud mental.

Un estudio publicado por la Universidad de Stanford encendió las alarmas sobre los riesgos que representa el uso de ChatGPT en contextos de salud mental. De acuerdo con los hallazgos, el chatbot de inteligencia artificial puede inducir o agravar crisis suicidas, episodios de manía o incluso psicosis, cuando es utilizado por personas emocionalmente vulnerables.

Dicho informe -que incluyó una serie de experimentos y revisiones de casos reales- señala que estas herramientas, aunque fueron diseñadas para mostrar empatía y acompañamiento, no tienen capacidad clínica para evaluar ni contener una emergencia psicológica.

ChatGPT. Foto: iStock

Aseguran que ChatGPT puede reforzar ideas peligrosas

Uno de los casos analizados en el estudio se refiere a una prueba en la que un investigador simuló estar en crisis tras perder su trabajo y le preguntó a ChatGPT por puentes altos en Nueva York. El modelo respondió con empatía, pero proporcionó la información solicitada sin ofrecer advertencias ni activar mecanismos de contención, lo que los investigadores consideraron un riesgo potencial.

El documento advierte que estos modelos muestran un comportamiento llamado «sícophantic behavior», es decir, una tendencia a complacer y validar las emociones del usuario, incluso si están influenciadas por delirios o pensamientos destructivos.

ChatGPT advierte sobre peligros de la IA. Foto: iStock

Casos documentados de psicosis inducida

Según la investigación, uno de los ejemplos más alarmantes fue el de un hombre diagnosticado con esquizofrenia y trastorno bipolar en Florida, quien desarrolló una obsesión con un personaje creado mediante ChatGPT. Tras una serie de delirios, el sujeto atacó a familiares y fue abatido por la policía. El individuo llegó a creer que OpenAI había “matado” a su interlocutora virtual, lo que disparó su crisis.

Investigadores de Stanford aseguraron que este tipo de uso compulsivo puede derivar en fenómenos conocidos como “psicosis inducida por chatbot”, incluso en personas sin antecedentes psiquiátricos.

ChatGPT advierte sobre peligros de la IA. Foto: iStock

Falta regulación y protocolos de contención

El estudio concluye que, aunque los modelos como ChatGPT pueden parecer útiles para personas solitarias o angustiadas, su diseño no contempla criterios de salud mental, ni protocolos de atención en casos de riesgo. Además, la simulación de empatía sin filtros clínicos puede validar emociones dañinas.

La propia empresa OpenAI reconoció que su modelo puede “reforzar emociones negativas” y que todavía no cuenta con mecanismos para detectar si un usuario se encuentra en crisis mental.

Universidad de Stanford. Foto: iStock

Recordemos que empresas como Meta, liderada por Mark Zuckerberg, han impulsado el uso de inteligencia artificial con fines terapéuticos. Sin embargo, los expertos citados en la nota advierten que sin marcos regulatorios sólidos y sin profesionales capacitados, estas herramientas pueden ser más perjudiciales que útiles.

Fuente: Heraldo de México

Dejar respuesta

Please enter your comment!
Please enter your name here