Redes sociales

El algoritmo de X silencia a las mujeres: el impacto en la política

Las redes sociales no están programadas para discriminar, pero aprenden de quienes más las usan

Campañas de odio en las redes sociales - Política
Un collage creativo sobre las campañas de odio en las redes sociales
Shutterstock

¿Puede una red social cambiar lo que pensamos? ¿Puede convertir votantes de izquierdas en conservadores? Durante años, la discusión pública sobre los algoritmos ha oscilado entre el alarmismo y la negación. O bien son máquinas de manipulación ideológica masiva, o bien simples herramientas neutras que muestran lo que hay. Pero la realidad es más compleja.

En el caso de X, la antigua Twitter, es especialmente curioso. Con más de 586 millones de usuarios activos mensuales en 2025, alrededor de 3.800 millones de visitas mensuales y un peso sin precedentes en la agenda mediática, no solo funciona como foro de ideas, sino como maquinaría política. El 59,7 % de sus usuarios declara acudir a la plataforma para informarse sobre noticias. Lo que circula en ella salta a titulares, tertulias y parlamentos. Y en esta plaza pública digital, entre el 63 y 64 % de sus usuarios son hombres. La proporción es casi dos por cada mujer. Es un dato decisivo porque cuando esa mayoría masculina produce contenido, interactúa y marca tendencia, el algoritmo aprende de ella.

Copia patrones masculinos

Un algoritmo no tiene ideología propia. Optimiza por clics, respuestas o tiempo de permanencia, entre otros elementos. Es decir, premia lo que genera interacción. Si dos tercios de quienes interactúan son hombres, el sistema aprende principalmente de patrones masculinos.

Esto implica más producción de contenido desde marcos culturales masculinos, más interacción entre hombres y mayor probabilidad de que determinados estilos, como la confrontación directa, la ironía agresiva o el debate entendido como combate, reciban recompensa algorítmica si generan más engagement.

Óscar Puente es uno de los políticos que más contenido genera en X. Efe

No hace falta que exista una regla explícita que diga “mostrar menos contenido de mujeres”. El sesgo emerge de esa dinámica. Estudios previos sobre otras plataformas, como Instagram, han demostrado que en entornos con homofilia (tendencia a relacionarse con quienes se parecen a uno), pequeñas diferencias iniciales pueden amplificarse. Si una publicación recibe ligeramente menos “me gusta” en su primera fase, el algoritmo puede interpretarlo como menor relevancia y reducir aún más su visibilidad.

El experimento más reciente

Un estudio experimental publicado esta semana en la revista Nature aporta una pieza decisiva al debate. Casi 5.000 usuarios estadounidenses fueron asignados aleatoriamente durante siete semanas a uno de dos grupos: uno utilizaba el feed algorítmico “Para ti”, el otro un feed estrictamente cronológico. Los resultados fueron claros: quienes usaron el feed algorítmico mostraron un desplazamiento hacia posiciones más conservadoras en determinados temas políticos. Aumentó la probabilidad de priorizar asuntos tradicionalmente defendidos por el Partido Republicano, en torno a la inmigración, la inflación o la delincuencia, y se registraron actitudes más críticas hacia la investigación judicial contra Donald Trump y más favorables hacia posiciones prorrusas en la guerra de Ucrania.

El presidente de Estados Unidos, Donald Trump. EFE/EPA/BONNIE CASH / POOL

El efecto fue evidente entre quienes ya se identificaban como republicanos o independientes con predisposición conservadora. Es decir, el algoritmo no convirtió masivamente a demócratas en conservadores, pero sí reforzó y endureció posiciones preexistentes. Y lo más relevante es que los cambios persistieron incluso después de volver al feed cronológico. El algoritmo había reconfigurado patrones de seguimiento y prioridades temáticas.

¿Qué ocurre cuando este desplazamiento conservador se produce en una plataforma donde la mayoría es masculina? Aquí la interacción entre demografía y algoritmo se vuelve clave. Si los hombres, especialmente los ya inclinados hacia posiciones conservadoras, se desplazan con mayor fuerza, el resultado puede ser una mayor concentración masculina en posiciones ideológicas más rígidas. Y en debates donde el género es central, como el aborto, políticas de igualdad, violencia de género o identidad sexual, esa intensificación tiene consecuencias.

Los hombres pueden experimentar ese refuerzo como cohesión identitaria. Para muchas mujeres, el mismo proceso puede vivirse como hostilidad. No se trata solo de “más derecha”, sino de un clima más contrario hacia determinadas agendas.

En sociología digital, la percepción de mayoría importa casi tanto como la mayoría real. Si una mujer entra en un debate y encuentra que las respuestas críticas son más numerosas, que los marcos conservadores reciben mayor interacción y que determinados discursos antifeministas se viralizan con facilidad, puede experimentar una sensación de minoría simbólica.

Esa percepción condiciona a las usuarias

La mujer puede optar por evitar ciertos temas para reducir desgaste, suavizar posiciones o adoptar un tono menos confrontativo. Incluso limitar su participación política en la plataforma. Y cuando menos mujeres intervienen en debates intensos, el algoritmo detecta menor producción femenina en esos temas y refuerza aún más la sobrerrepresentación masculina. Es un bucle de retroalimentación.
El efecto puede ser también el contrario, la radicalización. En algunas mujeres, la percepción de hostilidad puede generar mayor identidad feminista y más activismo digital. La amenaza fortalece la cohesión grupal y surgen redes de apoyo paralelos.

TAGS DE ESTA NOTICIA