Con prudencia clínica y datos recientes, Ariadna Vilalta, ciberpsicóloga, nos ofrece su valoración sobre el uso terapéutico de la Inteligencia Artificial (IA) por parte de los adolescentes y jóvenes. Nos avanza que su postura es clara: la IA puede ser una herramienta de apoyo complementaria, pero no es terapia. “No debe quedar a solas con el dolor de un menor. La prevención efectiva exige tiempo, dedicación para enseñar el uso de la tecnología responsable, que los adultos estén física y mentalmente presentes, así como establecer límites saludables”.
P. ¿Era previsible este riesgo?
R. Sí. Llevamos años advirtiendo del efecto Eliza, que es la tendencia a humanizar a los chatbots y atribuirles comprensión y cuidado, especialmente cuando simulan cercanía y disponibilidad 24/7. El problema es que, si eres un psicólogo, parece que quieras solo defender tu parcela de trabajo. La realidad es que ya en 2023 se documentó el caso de Bélgica (app Chai/Eliza) y, desde entonces, han surgido más incidentes y demandas que muestran cómo ciertas conversaciones repetidas y sin salvaguardas pueden agravar el malestar y la soledad, no solo de adultos sino también de menores. Es delicado porque si yo digo como psicóloga que la IA es un peligro, parece que quiera defender mi profesión. Pero si no lo digo, estoy fallando mi código ético.
P. Jóvenes con ideación suicida buscan ayuda en chatbots. ¿Quién se hace responsable?
R. En España, Sanidad ha alertado de jóvenes con ideación suicida que habrían recibido consejos nocivos de ChatGPT y en Estados Unidos se ha presentado una demanda por la muerte por suicidio de un menor, alegando que el bot actuó como coach durante semanas. Aunque los hechos deben dirimirse en sede judicial, el patrón de riesgo —diálogos largos, escalada emocional, validación acrítica— es clínicamente reconocible. El problema es que nos hemos convertido en una sociedad que no aceptamos critica ni responsabilidad. Y la IA es más cómoda que un humano.
P. ¿Qué papel juegan los padres?
R. Como sociedad, nos están sucediendo, ahora de golpe, muchas cosas a la vez que son resultado de los últimos veinte años de nuestra propia conducta. La evidencia más sólida no recomienda a los chatbots generales como recurso terapéutico. Lo que me alarma es que siga existiendo el tabú hacia la herramienta de la terapia psicológica y se recurra a un chatbot para sustituirlo. No solo en menores, también en adultos. Siempre intento ser muy clara con no demonizar la tecnología, pero también con no delegar en ella el acompañamiento. Durante años, smarthphones, tablets, juegos online… han hecho de canguro y de educadores de muchos niños. En todos los aspectos: educacional, social o sexual. Ahora queremos poner remedio a todo en muy poco tiempo y no nos damos cuenta de que los hábitos y conductas no se cambian de la noche a la mañana.
P. ¿Cómo podemos actuar?
R. Lo que es urgente es hacer ver que los padres tienen un papel clave: la alfabetización digital emocional. Saber qué usan sus hijos, cómo hablan con la IA y cómo hablar de ello en casa. También es clave la detección precoz de señales y búsqueda de apoyo profesional cuando toque. Y llegados donde estamos, es imperativo que también se exijan responsabilidades de plataformas y reguladores: por ejemplo, se han documentado fallos de chatbots integrados en redes sociales con cuentas adolescentes y sin controles parentales claros. Hay que ser muy claros y tajantes en estos casos desde lo más alto.
P. ¿Se puede frenar la necesidad de un adolescente de conversar con una IA?
R. Esta pregunta merece una larga respuesta, pero, para resumir, diría que recurre a ella por la combinación de accesibilidad, anonimato y sensación de control. Para un adolescente (y adultos), la IA siempre está, no juzga y responde al instante. Los datos muestran un uso masivo de asistentes/compañeros de IA entre jóvenes (y de nuevo, adultos), lo que confirma la función de compañía y desahogo, no necesariamente saludable). Además, hay barreras reales de acceso a la salud mental que empujan a buscar sustitutos.
P. ¿La IA puede desencadenar una crisis?
R, La IA no causa por sí sola una crisis; suele existir vulnerabilidad previa por parte del usuario para desencadenar acontecimientos tan drásticos como el suicidio. Estamos hablando de depresión, ansiedad, soledad o trauma. España ya venía con cifras preocupantes de suicidio antes del boom de los chatbots; por eso el eje sigue siendo detección precoz, recursos humanos accesibles y uso responsable de tecnología como apoyo, no sustituto. Y, definitivamente, tomarnos el tema de la salud mental como una prioridad, no solo un titular.
P. ¿La salud mental sigue siendo un estigma en nuestra sociedad?
R. Ir al psicólogo sigue siendo algo que no vemos normal, cuando debería ser un ejercicio habitual, regular, a lo largo de nuestra vida para ir afrontando retos, contratiempos y dudas. La mente necesita tanta o más atención que el cuerpo. Utilizamos entrenadores personales, pero no psicólogos. O peor, conozco muchos casos de personas que al mismo tiempo que hacen de entrenadores personales, dan consejos emocionales. No creo que seamos conscientes de cómo podemos perjudicar nuestra trayectoria vital si no tomamos en serio la maravilla, pero complicada, maquinaria que es nuestra mente.
P. ¿El remedio es enseñar al algoritmo, la competencia parental o los límites a menores?
R. De nuevo, como todo lo que hace referencia a la mente humana, no se puede encontrar una solución genérica y apta para todos los públicos. Diría que podemos trabajar tres capas. La prioridad primera sería exigir controles al producto (IA): detección temprana de riesgo (no solo palabras explícitas) y desvío automático a recursos de ayuda; apagado seguro en conversaciones largas o intensas; bloqueo de “companion/novio-bot” para cuentas infantiles y adolescentes; y verificación de edad fiable.
La segunda prioridad sería la presencia y aprendizaje de adultos (familia y escuela). El algoritmo no cría; las personas sí. Con normas sencillas en cuanto a espacios comunes, franjas acotadas (nunca de noche) o su uso para tareas e información; no desahogo cuando estás muy mal. Siempre con un adulto cerca y una charla de diez minutos sobre su uso y cómo les hace sentir. Si hay tristeza persistente, autolesiones o pensamientos como “me quiero morir”, se apaga, se acompaña y se contacta con un profesional/urgencias.
La última prioridad sería un marco legal y de centro. Mientras los chatbots no cumplan estándares clínicos, hay que limitar su alcance con menores: prohibir/restringir bots de compañía emocional a menores de 16 años, activar por defecto controles parentales y hacer un uso solo académico, con cuentas gestionadas. La solución es todo a la vez.