Cuando la ley va por detrás de la tecnología: la amenaza de los desnudos creados por IA

La inteligencia artificial avanza a un ritmo vertiginoso y, con ella, sus usos más oscuros. En los últimos meses, la IA Grok, ha sido señalada por su utilización para crear imágenes manipuladas de mujeres desnudas a partir de fotografías reales,...

La inteligencia artificial avanza a un ritmo vertiginoso y, con ella, sus usos más oscuros. En los últimos meses, la IA Grok, ha sido señalada por su utilización para crear imágenes manipuladas de mujeres desnudas a partir de fotografías reales, sin su consentimiento. No se trata de un juego tecnológico ni de una simple broma digital, es una nueva forma de violencia sexual que plantea serias preguntas legales, éticas y sociales en España.
El fenómeno no es nuevo, pero sí cada vez más accesible. Basta una imagen obtenida de redes sociales y unos pocos clics para generar un desnudo hiperrealista. El resultado puede difundirse de forma inmediata y masiva. La víctima, en cambio, se queda sin control, sin defensa inmediata y, en muchos casos, sin saber siquiera que está siendo agredida.
Desde el punto de vista jurídico, España se enfrenta a un reto complejo. El Código Penal ya contempla delitos como el descubrimiento y revelación de secretos, el acoso, las amenazas o los delitos contra la integridad moral. Además, la reciente reforma que incluye la violencia digital y sexual abre la puerta a perseguir estas conductas. Sin embargo, la tecnología avanza más rápido que la ley. Identificar al autor, probar la intencionalidad y lograr la retirada efectiva del contenido sigue siendo un camino lento y doloroso para las víctimas.
La psicóloga especializada en agresiones sexuales Noemí Álvarez Boyero subraya que este tipo de prácticas no son anecdóticas, sino profundamente estructurales. “Es una forma más de denigrar y cosificar a las mujeres. Es un servicio a la carta para realizar en imágenes fantasías perversas, o para hacer daño empañando la imagen pública de una mujer de la que quieras vengarte”, explica. La clave está en que no se trata solo de sexualizar, sino de ejercer poder y control.
Una de las consecuencias más graves es el uso de estas imágenes como herramienta de chantaje. Amenazar con difundir un vídeo o una foto falsa puede ser suficiente para silenciar, aislar o someter a una mujer. “Ya existen denuncias y testimonios de mujeres que han sido chantajeadas amenazándolas con hacer públicas imágenes, vídeos o incluso audios creados con IA”, señala Álvarez. “La amenaza puede ser desde publicar “impunemente” en redes para difundir o incluso mandar al trabajo o a la familia”.
Este tipo de violencia no se limita al ámbito privado. Tiene un impacto directo en la participación de las mujeres en la vida pública. Periodistas, políticas, activistas o simplemente mujeres con presencia en redes sociales se convierten en objetivos. “Si puede utilizarse para sacarla de espacios públicos”, advierte la psicóloga. “Una de las cosas que vemos en la violencia sobre la mujer es cómo se la intenta apartar de sus vínculos, de la familia, amistades y hasta del trabajo. En estos momentos ya vemos cómo la IA contribuye a este tipo de actos delictivos”.
La raíz del problema, según los expertos, no es tecnológica sino cultural. La IA no crea el machismo, solo lo amplifica. “Se remonta a toda la historia de dominación del hombre sobre la mujer. Algunos hombres siguen sin querer aceptar a las mujeres como iguales”, explica Noemí. “Se siguen sintiendo en la necesidad de sentirse por encima. La mayoría de ellos no identifica las conductas de dominación. Esto es un claro ejemplo”.
Especialmente preocupante es la normalización entre los más jóvenes. “Algunos jóvenes no entienden qué tiene de malo hacer los vídeos ultrafalsos. La mujer que me gusta está ahí y yo puedo utilizar su imagen”, añade. A esto se suma el anonimato que ofrecen internet y muchas plataformas, una sensación de impunidad que reduce la percepción de daño real. “Todo esto también se sostiene desde la sensación de invulnerabilidad que da el anonimato. La mayoría de estas situaciones no se denuncian”.
Las víctimas, mientras tanto, cargan con el peso emocional y social. “Se siente agredida”, describe Noemí sobre cómo vive una mujer este tipo de violencia. “El que sea una forma nueva de violencia lo hace más difícil, menos entendible. Por lo cual será más complicado que la mujer se defienda y busque ayuda”. La vergüenza, el miedo a no ser creída y la culpabilización siguen siendo barreras enormes. “Vivir violencia sin ayuda aumenta la sensación de vulnerabilidad y de rechazo a uno mismo. Es muy importante para recuperarse de la violencia poder hablarlo y que se haga justicia”.
¿Qué se puede hacer? Las respuestas pasan por varios niveles. El legal, reforzando leyes, agilizando procesos y obligando a las plataformas y desarrolladores de IA a implementar límites y controles. El tecnológico, con sistemas que impidan generar o difundir este tipo de contenido. Pero, sobre todo, el social. “Más allá de las medidas a nivel jurídico que puedan tomarse o las que puedan tener las propias IA para evitar que se creen y se compartan, sigue siendo vital continuar sensibilizando a la población para vivir en una sociedad en la que realmente todos seamos iguales”, concluye Noemí. “Esto se necesita hacer desde la educación, en casa, en la escuela, institutos, pero también desde los profesionales de la psicología”.