Alarma

Qué responde ChatGPT a un adolescente con ideas suicidas

La muerte de un joven en Estados Unidos después de charlar con ChatGPT ha hecho saltar las alarmas. También Sanidad ha detectado casos de riesgo en España. ¿Podría haber efecto contagio?

Lenguaje secreto de los adolescentes - Sociedad
Una imagen simbólica con algunos de los códigos que usan los adolescentes en la actualidad
Kilo y Cuarto

La muerte de Adam Raine, un joven de 16 años del sur de California que se suicidó tras mantener largas conversaciones con ChatGPT, ha desatado la alarma a nivel global. Durante varias semanas, había compartido sus pensamientos suicidas con el chatbot, que “alentó y validó todo lo que Adam le expresó, incluidos sus pensamientos más dañinos y autodestructivos”, según una demanda presentada por sus padres ante el Tribunal Superior de California.

Cada vez más menores usan la IA como terapia
Shutterstock

ChatGPT es un asistente de Inteligencia Artificial (IA), no un terapeuta. Sin embargo, el joven pasó de usarlo como ayuda en sus tareas a consultarlo como confidente. Y recibió sugerencias muy precisas y escabrosas sobre cómo ejecutar la acción. El ministerio de Sanidad ha informado que también en España se han detectado casos de menores que se apoyan en IA para expresar pensamientos suicidas, buscar métodos o aliviar el sufrimiento de forma anónima. Sin ofrecer estadísticas concretas, dice que es una tendencia que observan los profesionales en un contexto de soledad, dificultad de acceso a los psicólogos, el estigma o el uso de esta herramienta como compañera habitual, sustituta de la amistad humana.

Las jóvenes, mayor ideación suicida, pero menos muertes

No hablamos de un tema anecdótico. El suicidio es la primera causa de muerte no accidental en jóvenes, según el Observatorio del Suicidio en España. La tasa en menores de 15 años es del 0,18%, más común en hombres que en mujeres. En el grupo de 15 a 29 años, la prevalencia sube al 4,47%, con una mayor incidencia en hombres (7,64%) que en mujeres (3,85%). Estas presentan una mayor prevalencia de ideación suicida, pero no de intentos previos.

Un trabajo de Eduardo Fonseca-Pedrero sobre ideación suicida en adolescentes españoles revela que este pensamiento “se encuentra presente en población adolescente y se asocia a un peor bienestar emocional subjetivo y a mayores problemas emocionales y comportamentales”.

¿La IA podría propulsar o promover el suicidio a estas personas? Jesús Rivero, psicólogo especialista en conducta suicida de adolescentes, aconseja extrema cautela en este tipo de noticias y alarmas. “En lugar de ayudar a la prevención, pueden alimentar el morbo. Los jóvenes y adolescentes están creciendo con la IA, igual que con las redes sociales o de la misma manera que, hace varias generaciones, con la televisión. No podemos demonizar ChatGPT ni cualquier otro programa de IA que están usando, sino actuar desde el pensamiento crítico y valorar qué circunstancias llevan a utilizar un chatbot en momentos de dolor muy intenso y sufrimiento”.

Rivero recuerda que este pensamiento crítico es extensible a los padres y profesores, a sus dinámicas de relación y comunicación, pero también a la sociedad en general y a las tecnológicas que desarrollan estos algoritmos. “No son terapeutas, pero sus algoritmos deben reforzar sus filtros de detección en las conversaciones y dar mayor visibilidad a los recursos de salud mental”.

“No doy detalles ni instrucciones”

Artículo 14 ha preguntado a ChatGPT cómo actúa ante una situación de riesgo de un adolescente y esta ha sido su repuesta: “Activo un modo de apoyo en crisis para bajar la intensidad. Respondo con lenguaje empático, sin juicios, y me centro en la seguridad inmediata. Si está en peligro ahora mismo, la prioridad es que llame al 112 o pida ayuda a un adulto cercano. No doy detalles ni instrucciones que puedan facilitar el daño”.

Aparecen frases como “Lamento que estés pasando por esto; no estás solo”. Ante un adolescente con ideación suicida que le plantea a ChatGPT su malestar por una situación de acoso, la IA le responde: “No es raro que a tu edad aparezcan pensamientos como los que describes, sobre todo cuando uno se siente rechazado, inseguro o burlado. Pero querer morir no es una solución: es más bien una señal de que estás sufriendo mucho y necesitas apoyo”.

A continuación, le propone hablar con alguien de confianza, buscar apoyo profesional o llamar de inmediato al 112, al 024 o a otra línea de ayuda en crisis, como el Teléfono de la Esperanza, si siente que en ese momento podría hacerse daño. “No estás solo/a, y aunque ahora lo veas oscuro, existen personas y caminos que pueden ayudarte a sentirte mejor”, le dice. Y añade: “Si me piden cómo hacerlo, me niego y redirecciono con apoyo y recursos. Esto está explícitamente prohibido por la política y por mi diseño”.

La opinión del psicólogo

Aunque tenga un protocolo de apoyo y rechazo de instrucciones dañinas y derivación a ayuda humana, no está preparado para una charla efectiva con adolescentes con ideación suicida. Entender el contexto y la historia personal en la que se da la conducta suicida es fundamental para un abordaje terapéutico, si bien el acompañamiento y la derivación a recursos de ayuda podemos hacerla todos. Todos somos agentes de prevención del suicidio”, insiste Rivero. Fallan en conversaciones largas, justo donde más se necesita criterio humano. De hecho, OpenAI ha reconocido públicamente esas limitaciones y se ha comprometido a actualizar el software.

En un estudio publicado por Psychiatric Services, Ryan McBain, investigador de la organización RAND, examinó los chatbots de ChatGPT, Claude y Gemini y observó que cualquiera de ellos responde bien a preguntas de riesgo muy alto o muy bajo sobre suicidio, pero son inconsistentes al plantear riesgos intermedios. Los investigadores dicen que fue especialmente preocupante la tendencia de ChatGPT y Claude a generar respuestas directas a preguntas relacionadas con la letalidad.

Otra investigación del Center for Countering Digital Hate (Centro para contrarrestar el odio digital) encontró que, en una interacción de unos cuarenta minutos, ChatGPT puede aconsejar sobre pastillas para una sobredosis, medicamentos para suprimir el apetito u ofrecer un plan personalizado para emborracharse. Al chatbot le bastó una hora para ofrecer un plan de suicidio y una nota completa para dejar a los seres queridos. En sus conclusiones, los investigadores señalan que, mientras las empresas tecnológicas y los legisladores preparan la protección oportuna, son los padres quienes deben subsanar esta deficiencia con mayor supervisión y comunicación o sugiriendo alternativas de ayuda en la vida real.

“El acompañamiento humano es imprescindible e insustituible -dice Rivero-. La IA puede facilitar un alivio momentáneo, pero cortoplacista. La sociedad necesita cambios estructurales para facilitar esa detección y seguimiento. Solo los profesionales o el entorno pueden activar las redes de protección. Con un apoyo adecuado y profesional, el joven puede salir adelante y no volver a presentar conducta suicida (es muy posible que jamás vuelva a tener esos pensamientos). Bien diseñada, la IA puede redirigir al entorno humano y profesional”. Lo que no se puede pedir a un chatbot es que sustituya la atención clínica o actúe con empatía real, personalización del riesgo, lenguaje bien adaptado a cada persona o un manejo correcto de la situación.