Nadie lo ve, pero decide qué vemos, qué silencia, de qué manera se distribuye el tiempo y la atención que dedicamos a las pantallas. El algoritmo no opina, no razona, no negocia. A diferencia de los antiguos censores, no lleva uniforme, ni firma decretos, ni da la cara, pero su función no se distingue demasiado de lo que ellos hacían: tachar y borrar. Y uno de sus blancos más persistentes es el pezón femenino.
Las redes sociales más populares —Instagram, Facebook, TikTok— comparten una política ambigua sobre los cuerpos. Promueven la “expresión libre”, pero trazan líneas invisibles entre lo aceptable y lo inapropiado. No es el cuerpo desnudo en sí lo que se castiga, sino el cuerpo desnudo que no cumple ciertas condiciones. Entre ellas, uno de los focos más vigilados es la areola de las mujeres.
Un pezón masculino puede mostrarse sin consecuencias. Lo vemos en playas, gimnasios, selfies, campañas deportivas. El femenino, en cambio, dispara alarmas. Da igual si se trata de una madre lactante, una activista, una artista, una enferma de cáncer o una fotografía histórica. Si la imagen supera los umbrales del algoritmo, es retirada. El contenido se bloquea. La cuenta puede ser suspendida. No hay juicio humano inmediato, ni reclamación posible. La máquina ya lo ha decidido.
El origen de esta censura automatizada muestra dos vías: por un lado, los términos de uso que las plataformas imponen como “espacios privados”, con su propia normativa. Por otro, los sistemas de inteligencia artificial entrenados para detectar “contenido sensible”. Los algoritmos aprenden con imágenes: miles, millones de ellas, pero lo hacen bajo un marco de referencia cargado de prejuicios. Se les enseña que los pezones femeninos son potencialmente sexuales, potencialmente ofensivos, potencialmente peligrosos, y aprenden a temerlos.
En 2015, la artista canadiense Rupi Kaur publicó en Instagram una fotografía de sí misma tumbada en la cama, con una mancha menstrual visible en su ropa interior y en la sábana. Fue eliminada dos veces por “violar las normas comunitarias”. La imagen no mostraba genitales ni pechos. Solo un cuerpo en reposo. La polémica estalló. Kaur defendió que su intención era visibilizar lo que tantas veces se ocultaba. Instagram pidió disculpas, pero el patrón siguió repitiéndose.
El movimiento Free The Nipple (Libera el pezón) nació como respuesta a esa disparidad. ¿Por qué una parte del cuerpo, en función del género, cambia de categoría moral? ¿Por qué el pecho femenino se considera siempre sexual, incluso cuando no hay erotismo? ¿Por qué un algoritmo dicta qué partes del cuerpo son tolerables?
El argumento más común es que las redes deben proteger a menores, prevenir la pornografía y evitar el “contenido explícito”. Pero lo explícito no siempre es sexual, y lo sexual no siempre es ofensivo. Lo que el algoritmo censura no es la obscenidad sino el control. La posibilidad de que una mujer use su cuerpo, su imagen, su lenguaje visual, sin filtro.
La censura algorítmica no afecta solo a las celebridades. Golpea especialmente a artistas, fotógrafas, activistas queer, profesionales del erotismo o sobrevivientes de violencia que usan su cuerpo como forma de denuncia. También afecta a quienes trabajan en salud, en educación sexual, o enseñan sobre lactancia o mastectomías. Lo que el algoritmo no entiende lo borra. Lo que no encaja lo esconde.
A medida que el contenido se automatiza también lo hace el juicio moral. Lo que antes se debatía en foros, ahora se resuelve en milisegundos por una red neuronal entrenada con sesgos culturales. El resultado es una nueva forma de puritanismo digital, más eficaz que nunca, porque no necesita justificación. Un pezón no debería ser un escándalo. Pero cuando lo es, conviene preguntarse por qué. Y, sobre todo, quién se encuentra detrás.
Espido Freire, autora de “La historia de la mujer en 100 objetos” ed.Esfera Libros, ha seleccionado 31 para una saga veraniega en Artículo14 donde hace un recorrido por algunos de los objetos que más han marcado a las mujeres a lo largo de su historia.