Hace escasos días se ha armado un escándalo monumental con los cánticos islamófobos que se ejecutaron en un estadio, durante un partido de fútbol. Una parte del público instigó una conducta impropia en una práctica deportiva, cercana a lo que denominamos “discurso de odio”. Incluso se ha abierto una investigación para detectar quienes fueron los impulsores de esta rechazable actitud.
Lamentablemente, no es la primera vez que ello ocurre. Situaciones semejantes, aunque en otros contextos, han sido casi habituales en determinadas circunstancias o lugares. Un antiguo vicepresidente del Gobierno afirmó que se ofrecía para “reventar a la derecha”. En mi antigua universidad, con el exabrupto “fora escòria castellana de la UAB” [fuera escoria castellana de la UAB] se trató de impedir violentamente la realización de un acto. En numerosas ocasiones hemos también escuchado cánticos hispanófobos y ataques a los himnos o símbolos. Todas estas posturas son claramente incitadoras a la exclusión de un segmento social concreto: la derecha, lo castellano, lo español…
Hemos también presenciado actos de odio hace no mucho tiempo, cuando, con ocasión de “La Vuelta” ciclista a España, grupos de radicales, con el aplauso del presidente del Gobierno, que se ha manifestado “orgulloso” de su ciudadanía por ello, organizaron la repulsa violenta a esta manifestación deportiva con la excusa de que en ella participaba un equipo con ciertas vinculaciones con Israel, estado que, según todos ellos, perpetraba un genocidio en Gaza. Claro discurso de odio, contra el judío, contra la derecha… contra todo aquello que ellos designen como foco de su agitación.
Sorprende, en este contexto que, como en una especie de ceremonia de la confusión, el Gobierno español haya impulsado una plataforma para detectar conductas de odio, en el marco del OBERAXE (Observatorio Español del Racismo y la Xenofobia) que está inscrito en el Ministerio de Inclusión, Seguridad Social y Migraciones. No me parece oportuno nombrar a la nueva plataforma por el vocablo con el que ha sido creada, por respeto a los miles de enseñantes que intentan que sus alumnos escriban correctamente las palabras. Poner odio con hache, en un observatorio público, indica el escaso nivel semántico y conceptual de sus promotores. Me extraña, incluso, que OBERAXE, a quien he tenido por instrumento de una cierta calidad en el ejercicio de sus funciones cuando dirigí el “National Focal Point” español de la Agencia de los Derechos Fundamentales de la UE (FRA), haya aceptado sin más cobijar algo con una denominación tan poco correcta.
Si entramos en la web de la plataforma, pocas conclusiones podemos detraer de ella, aparte de solaparse en sus funciones con las que tradicionalmente ha desplegado el Observatorio primigenio. Afirman que la plataforma emplea un sistema mixto de análisis que integra técnicas cuantitativas e inteligencia artificial para procesar grandes volúmenes de contenido público, acompañado de una revisión humana experta, para garantizar precisión, coherencia y respeto a los estándares internacionales. Pretenden realizar informes periódicos comparativos, especialmente acerca de publicaciones en otras plataformas y redes sociales, utilizando categorías de análisis basadas en evidencias empíricas. No han hecho público, todavía, ninguno de ellos, seguramente por el escaso tiempo transcurrido desde su creación.
Quizás lo que más identifica a esta nueva plataforma es el uso de la denominada inteligencia artificial, lo que me produce verdadera desazón cuando, según el Reglamento Europeo recientemente entrado en vigor, el Reglamento (UE) del Parlamento Europeo y del Consejo, de 13 junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican diversas normas anteriores, nos hallamos ante un instrumento calificado en el mismo como “de alto riesgo”.
Este reglamento tiene un especial interés en la regulación de los denominados “sistemas de riesgo”, fundamentalmente cuando su utilización puede comportar injerencias en los derechos fundamentales, especialmente porque la opacidad de muchos algoritmos puede crear riesgos sistémicos, por ejemplo, en aplicaciones sobre identificación biométrica o en las decisiones automatizadas que afecten a intereses personales importantes, como pueden ser las que implican a la educación, la asistencia sanitaria, la investigación policial y judicial o las informaciones que condicionan determinadas contrataciones. Por ello, además de tener que contar con supervisión humana (lo cual sí está previsto en la plataforma) obliga a que todo sistema que utilice IA, tenga que realizar, antes de su puesta en práctica, evaluaciones de impacto en materia de derechos fundamentales o para hacer frente a sesgos raciales y de género, reduciendo de este modo los riesgos de discriminación por razón de sexo, edad u otras condiciones que puedan advertirse en personas vulnerables. Lo que me lleva a preguntarme si la plataforma recientemente creada, en la que se utiliza o se va a utilizar IA, cuenta con tal evaluación. La web oficial nada indica al respecto.
Asimismo hay que tener en cuenta que, tal como he advertido, estamos ante lo que el reglamento europeo denomina “Sistema de IA de alto riesgo”, que son los riesgos regulados en el Anexo III, referentes a biometría; infraestructuras críticas; educación y formación profesional; empleo, gestión de los trabajadores y acceso al autoempleo; acceso a servicios privados esenciales y a servicios y prestaciones públicos esenciales; garantía del cumplimiento del Derecho; migración, asilo y gestión del control fronterizo; administración de justicia y procesos democráticos. Todo ello puede presentar, en su aplicación para la detección del odio, afectaciones que es necesario garantizar que no vulneren derechos fundamentales, especialmente mediante prácticas prohibidas que a veces no son evidentes. El reglamento enumera unas cuantas: clasificar a las personas o colectivos por su comportamiento social o características personales; valorar el riesgo de comisión de delitos a partir del perfil de una persona; extracción no selectiva de imágenes faciales de internet o de circuitos cerrados de televisión; deducir o inferir la raza de una persona, sus opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual, salvo casos concretos debidamente autorizados por la ley. No digo yo que la plataforma gubernamental incurra en tales supuestos, pero tendría que incluir en la propia información que se nos proporciona en su web, las garantías necesarias con que cuenta para que ello no suceda.
El Reglamento IA obliga a que todo uso de sistemas de identificación biométrica sea notificado a la autoridad de vigilancia del mercado competente y a la autoridad nacional de protección de datos y a establecer en los respectivos sistemas jurídicos nacionales las normas que regulen el uso de los sistemas de notificación biométrica, comprendiendo: la solicitud, la concesión y el ejercicio de las autorizaciones y la supervisión y presentación de Informes relacionados con el uso de tales sistemas. ¿Se han realizado estas notificaciones? Tampoco nos consta, por lo que se ha hecho público, que se haya dado cumplimiento a estas obligaciones.
Ciertamente, la creación de instrumentos que ayuden a detectar, prevenir y reparar el odio, siempre es positiva. Pero la desconfianza aparece cuando quienes los impulsan tienen actitudes contradictorias, como el sentirse orgullosos de que, empleando métodos violentos, se impida la celebración de eventos deportivos, o que se mire hacia otro lado en determinadas ocasiones, actuando únicamente cuando el odio se dirige contra lo que se considera como políticamente correcto. De ahí que llame la atención acerca de lo que ha de suponer el establecimiento de una plataforma como la prevista, que puede resultar útil y adecuada, en dependencia de cómo esté configurada y del establecimiento de garantías de buen uso de la misma. En caso contrario, estaremos ante una mera operación propagandística no exenta de riesgos.
