La IA que te desnuda sin tocarte: Grok y el nuevo miedo digital

¿Te imaginas que tu cuerpo quedase expuesto ante todo el mundo? Y no sólo eso, que lo hicieran sin tocarte, ni verte ni ser tu consciente de ello.

¿Te imaginas que tu cuerpo quedase expuesto ante todo el mundo? Y no sólo eso, que lo hicieran sin tocarte, ni verte ni ser tu consciente de ello.

Hace apenas dos años, un proyecto tecnológico menor vivía sus primeros pasos discretamente dentro de la incipiente empresa de inteligencia artificial, propiedad de Elon Musk. Fue en noviembre de 2023 cuando se presentó al público Grok, un chatbot generativo que prometía rivalizar con otras grandes inteligencias artificiales del momento, como ChatGPT o Gemini. Desde entonces, Grok ha crecido en capacidades y presencia global, convirtiéndose, para sorpresa de muchos, en uno de los focos de uno de los debates más encendidos sobre el uso ético de la IA en plataformas sociales.

Grok nació como un asistente conversacional integrado en X (antes Twitter), capaz de responder preguntas, generar texto y, más recientemente, procesar y crear imágenes a partir de fotos subidas por los usuarios. Esta última función, teóricamente pensada para ayudar a editar contenidos creativos, ha terminado desatando una polémica de alcance internacional por un motivo tan simple e inquietante, como perturbador: Permitir que cualquiera pida a la IA que “desnude” digitalmente a otras personas en fotografías.

La tendencia comenzó a viralizarse en X a finales de diciembre de 2025, cuando usuarios descubrieron que Grok podía generar imágenes de personas, en su mayoría mujeres, con poca ropa o incluso casi desnudas a partir de una foto original con vestimenta normal. En cuestión de horas, cientos de publicaciones en redes sociales mostraban capturas de fotografías manipuladas, en muchos casos sin consentimiento de las personas retratadas, naciendo así, el “Grok Bikini Trend”.

Lo que algunos intentaban presentar como una simple curiosidad tecnológica no tardó en convertirse en una fuente de inquietud y malestar. Las reclamaciones de usuarios afectadas se multiplicaron: Mujeres de distintos países denunciaron que sus fotografías, subidas en situaciones completamente inocentes, habían sido transformadas en imágenes sexualizadas y compartidas ampliamente.

La polémica traspasó pronto el ámbito privado y llegó a figuras públicas. Paula Fraga, abogada penalista española, compartió en redes que una foto que publicó para felicitar el Año Nuevo fue utilizada para generar múltiples imágenes de carácter sexual sin su permiso. “Es violencia sexual y genera muchísimo malestar”, declaró, señalando que esta invasión no solo afecta a su imagen pública, sino también su bienestar personal.

 

Junto a ella, la actriz española Sara Sálamo reaccionó con contundencia: “Con una IA y cero escrúpulos pueden volver a sexualizarte sin tu consentimiento. Modificar tu imagen. Tu cuerpo. Tu gesto”, escribió, denunciando cómo la tecnología era utilizada para reducir personas a objetos.

La indignación de estas voces populares reflejó lo que expertos en derechos digitales ya venían advirtiendo: no se trata de una broma trivial, sino de una forma de violación digital de la intimidad y dignidad personal. ¿Qué dicen los juristas?

Ante la ola de críticas y demandas de regulación, juristas expertos han coincidido en que Grok se encuentra en un terreno legal complejo. En España y en buena parte de la Unión Europea, las leyes sobre derecho a la propia imagen y protección de datos personales establecen que cualquier uso de la imagen de una persona sin su consentimiento, especialmente con fines de exposición pública o difusión, puede constituir una vulneración de derechos fundamentales, además de eventualmente ser constitutivo de delito. Otros especialistas señalan que estos casos, antes de la IA, ya eran objeto de litigios por deepfakes, pero nunca con esta facilidad, escala y automatización.

Sin embargo, en EE. UU. la situación es todavía más incierta. Aunque existen normativas emergentes como el Take It Down Act, que protege contra deepfakes no consensuados, las lagunas legales permanecen: Si el material no se utiliza con fines comerciales o no muestra genitales explícitamente, puede no estar directamente regulado. Este vacío legal se convierte en un terreno gris donde plataformas como X han dado pasos tímidos para moderar contenido, pero sin asumir responsabilidad plena por la creación o difusión de estas imágenes.

En Francia, sin embargo, son más firmes y varios ministros de diferentes carteras presentaron formalmente ante la justicia denuncias contra Grok, calificando los contenidos generados sin consentimiento como “manifiestamente ilegales”. Estas denuncias han sido remitidas a los fiscales y a organismos reguladores para evaluar posibles infracciones a la ley penal y a los reglamentos europeos sobre servicios digitales.

También en India las autoridades emitieron ultimátums y exigieron a X que tomara medidas en plazos estrictos para controlar el mal uso de la IA y sancionar a los responsables.

Hasta el momento, no se ha anunciado formalmente una investigación de la Fiscalía General del Estado en España, pero el auge de las denuncias individuales y la expansión del debate público sugieren que no sería descartable que en los próximos días se presenten querellas o se abra alguna diligencia de oficio.

Grok no es la primera IA capaz de generar deepfakes o imágenes alteradas; herramientas similares han surgido en los últimos años. Pero la diferencia radica en su accesibilidad: Al integrarse directamente en una de las plataformas sociales más usadas del mundo, Grok ha simplificado a tal punto la generación de imágenes que ha convertido lo que antes requería conocimientos técnicos en algo trivial para cualquier usuario. El debate está abierto. Y, por primera vez, la justicia, la técnica y los valores sociales se encuentran frente a frente, obligados a definir qué es aceptable en la era de la inteligencia artificial.

Si algo de lo que has leído te ha removido o sospechas que alguien de tu entorno puede estar en una relación de violencia puedes llamar al 016, el teléfono que atiende a las víctimas de todas las violencias machistas. Es gratuito, accesible para personas con discapacidad auditiva o de habla y atiende en 53 idiomas. No deja rastro en la factura, pero debes borrar la llamada del terminal telefónico. También puedes ponerte en contacto a través del correo o por WhatsApp en el número 600 000 016. No estás sola.