“El algoritmo de la policía española dijo que Lina solo corría un ‘riesgo medio’. Poco después fue asesinada”. Con este titular la BBC publicaba hace unos días un reportaje en el que cuestionaba el sistema VioGén. Como ejemplo de sus fatales errores, la Corporación Británica de Radiodifusión eligió contar el caso de Lina. La mujer, de 48 años y cuatro hijos asesinada el pasado 9 de febrero en Benalmádena (Málaga).
El algoritmo falló y estableció un riesgo medio en lugar de extremo
Unas semanas antes de que su expareja acabase con su vida, el 20 de enero, Lina denunció por primera vez a su pareja tras años de maltrato. Respondió todas las preguntas del cuestionario VioGén, y el sistema de protección determinó que corría un riesgo medio. El algoritmo falló. No pudo prever que, en realidad, Lina estaba en peligro extremo.

El juicio se celebró el 3 de febrero en el Juzgado de Violencia contra la Mujer número 3 de Málaga. Se solicitaron medidas de protección y un informe forense, pero ambas peticiones fueron rechazadas. La jueza no consideró que el agresor representara una amenaza para Lina y sus hijos. Seis días después, él los golpeó y la asesinó en presencia de los pequeños. Luego, prendió fuego a la casa y llamó a Emergencias para avisar del incendio, sin mencionar que se trataba de su propio domicilio.
“Solo en España un algoritmo está tan profundamente integrado en la práctica policial”
La BBC explica el funcionamiento de VioGén, “un sistema basado en un algoritmo que formula 35 preguntas sobre el abuso y su intensidad, el acceso del agresor a armas, su salud mental y si la mujer ha dejado, o está considerando dejar, la relación. Ahora, su muerte está generando interrogantes sobre VioGén y su capacidad para proteger a las mujeres en España. VioGén no predijo con precisión la amenaza que enfrentaba Lina”.
El medio público británico señala que “al tratarse de una mujer designada de riesgo ‘medio’, el protocolo establece que un agente de policía designado volvería a hacer un seguimiento de ella en un plazo de 30 días. Pero Lina estaba muerta para ese entonces. Si hubiese sido clasificada de riesgo ‘alto’, el seguimiento policial habría tenido lugar en el plazo de una semana”.
“Están delegando la toma de decisiones sobre la seguridad de las mujeres en un algoritmo”
“Pero solo en España un algoritmo está tan profundamente integrado en la práctica policial. VioGén fue desarrollado por la policía española y académicos. Se utiliza en todo el país, excepto en el País Vasco y Cataluña”, apunta.
Del mismo modo se hacen eco de que un estudio de 2014 detectó que los agentes aceptaban la evaluación de VioGén en el 95 por ciento de los casos. “Los críticos sugieren que la policía está delegando la toma de decisiones sobre la seguridad de las mujeres en un algoritmo”, alertan.

La lotería del código postal
En la misma pieza entrevistan al doctor Juan José Medina, criminólogo de la Universidad de Sevilla, que asegura que en España existe una “lotería del código postal para las mujeres que solicitan órdenes de alejamiento: algunas jurisdicciones tienen mucha más probabilidades de concederlas que otras”.
“No sabemos cómo influye VioGén en los tribunales o en la policía, porque no se han realizado estudios al respecto. “¿Cómo la policía y otros actores están utilizando esta herramienta, y cómo influye en su toma de decisiones? No tenemos buenas respuestas”, señala.
El New York Times también cuestionó el algoritmo
No es la primera vez que la prensa internacional se hace eco y cuestiona el sistema VioGén. El año pasado era el diario The New York Times quien cuestionaba el sistema de predicción. “Un algoritmo le dijo a la policía que ella estaba a salvo. Luego su esposo la mató. España usa un sistema que evalúa la probabilidad de que una víctima de violencia doméstica vuelva a sufrir maltrato y ayuda a determinar la protección que se le brinda, lo que a veces acarrea consecuencias fatales”, titulaba.

En esa ocasión, los periodistas Adam Satariano y Roser Toll Pifarré repasaron la creación del sistema y las características e historias de las mujeres al que sistema falló. Para ello se entrevistaron con más de 50 víctimas, familias, policías, funcionarios gubernamentales y otros expertos sobre el sistema VioGén. La idea que atravesaba el artículo es que España “se ha vuelto dependiente de un algoritmo para combatir la violencia de género”.
Al menos 247 mujeres han sido asesinadas después de que VioGén las evaluara
“El software está tan entrelazado con los cuerpos policiales que es difícil distinguir dónde terminan sus recomendaciones y dónde empieza la toma de decisiones humana”, se preguntan en el reportaje. Porque a pesar de que el sistema ha ayudado a proteger a mujeres vulnerables y en general, ha reducido la cifra de maltrato, “VioGén también ha dejado víctimas mortales al calcularse erróneamente su puntuación de riesgo. Desde 2007, al menos 247 mujeres han sido asesinadas por su pareja o expareja después de que VioGén las evaluara, según cifras gubernamentales. Si bien es cierto que la cifra es una fracción minúscula de los casos de violencia de género, es indicativa de los fallos del algoritmo. The New York Times averiguó que en una revisión oficial de 98 de esos feminicidios, 55 de las mujeres asesinadas habían recibido de VioGén la clasificación de riesgo no apreciado o bajo“, denunciaban.