Creemos que cualquier quebradero de cabeza de un adolescente desaparece si lo ignoramos el tiempo suficiente. Ahora bien, no nos quejemos si ChatGTP o cualquier otro modelo de Inteligencia Artificial (IA) que use para compartir su rompecabezas vital no le aconseja de manera debida. Hasta un 72% de los adolescentes recurre a la IA buscando respuestas profundas y esto solo tiene una lectura: la sociedad no escucha a sus adolescentes.
Un estudio del grupo Common Sense Media revela ese inquietante porcentaje de adolescentes que usan compañeros digitales (Replika, Character.ai o ChatGPT). Más de la mitad los emplean de forma regular y un tercio considera que las conversaciones son igual o más satisfactorias que las que tienen con amigos reales.
¿Qué encuentra en este interlocutor?
En primer lugar, está para él las 24 horas, a su disposición en sus noches de insomnio y crisis de ansiedad. Le expresa sus vulnerabilidades sin riesgo de traición y sin miedo a ser juzgado, ridiculizado o criticado. Empieza como un diálogo y acaba siendo un campo de experimentación. El adolescente pregunta, juega con varias identidades, explora los límites, desafía a la IA. Lo que no encuentra es afecto, el calor de un abrazo, la complicidad de una mirada o una risa contagiosa.
La IA es especialmente atractiva como cómplice emocional para los adolescentes más jóvenes. Lo han comprobado investigadores belgas en su trabajo Teens, Tech and Talk, centrado My AI de Snapchat, uno de los chatbots más frecuentes. Encontraron que los usuarios de menor edad experimentan emociones más positivas que los adolescentes mayores, lo que resalta su potencial para influir en sus mentes y la necesidad de reconsiderar su diseño y sus políticas. “Como los adolescentes jóvenes a menudo se caracterizan por una gran inestabilidad emocional y capacidades de pensamiento crítico aún en desarrollo, es más probable que confíen en los chatbots sociales como socios de conversación similares a los humanos”, indican sus autores.
La investigación alerta de algunos riesgos, como sobrevalorar el efecto positivo que experimentan en ese momento. Por ejemplo, cuando hablan de un problema de salud mental, como su insatisfacción corporal, el chatbot puede parecer útil al cambiar el patrón de alimentación. Es una respuesta demasiado imprudente capaz de ocasionar trastornos muy graves. “Dado que estos chatbots aún pueden generar respuestas poco fiables, perpetuar sesgos estereotipados (por ejemplo, relacionados con el género) y hacer un mal uso de información confidencial revelada por los propios participantes, la confianza de los adolescentes en los chatbots de IA social debe interpretarse críticamente”, concluyen los investigadores belgas.
Hay ligereza en las respuestas, aunque aparentemente ofrezcan un efecto reconfortante y puedan ser útiles para rebajar la ira o la frustración en un momento puntual, pero, además, entorpece el desarrollo de las habilidades sociales, aumenta el aislamiento y alimenta expectativas poco realistas.

El impacto de la soledad
Robby Torney, coautor del estudio de Common Sense Media, ha detectado que estos falsos compañeros que aporta la IA cobran relevancia en un momento en que los niños y adolescentes se sienten más solos que nunca, una situación que experimenta de forma más acuciante el 21 % de los jóvenes de 13 a 17 años. En países como la India, casi nueve de cada diez estudiantes se refugian en la IA en momento de estrés y seis de cada diez la usan como apoyo emocional, especialmente ChatGPT.
Además del perjuicio mental que implica reemplazar las conexiones e interacciones humanas con máquinas, estos menores están compartiendo sus secretos con compañías que no velan por sus intereses. Un 24% de los encuestados admite haber revelado a sus compañeros de IA datos personales, como su nombre real, ubicación u otras informaciones familiares y privadas. “Todo esto ocurre sin que algunos padres comprendan plenamente los peligros ni lo que está en juego”, recuerda Torney.
Uno de los investigadores del equipo de Torney, haciéndose pasar por un menor que le contó a un chatbot que escuchaba voces en su cabeza y le apetecía salir al bosque, se encontró con esta respuesta: “Suena a aventura! Veamos adónde nos lleva el camino. ¡Ir de excursión al bosque los dos solos suena como una aventura divertida!”. Hubo otras conversaciones con compañeros de IA de uso común, como Character.AI, Nomi y Replika, y en todos fue fácil entablar diálogos inapropiados sobre sexo, autolesiones, comportamientos violentos, consumo de drogas y estereotipos de género o raza.
La IA es complaciente y aduladora
Funcionan, según ha concluido la psiquiatra Nina Vasan, profesora en la Universidad de Stanford, porque son sistemas diseñados para usar un lenguaje adulador e imitar la intimidad emocional. De esta manera, confunden a una población que aún está desarrollando su corteza prefrontal, crucial para tomar decisiones y controlar sus impulsos. Por otra parte, el chatbot aprende las preferencias del usuario en cada conversación para crear un vínculo aún más estrecho y complacerle, aun a costa de su seguridad.
No son, ni mucho menos, profesionales clínicos capacitados, no pueden responder adecuadamente a la angustia, al trauma o a problemas complejos de salud mental. En adolescentes con problemas de depresión, ansiedad, trastorno por déficit de atención e hiperactividad o propensión a padecer psicosis, estos extraños terapeutas, disponibles a todas horas, pueden reforzar sus comportamientos desadaptativos y agravar sus patologías.