El gobierno español anunció esta semana una importante revisión de un programa en el que la policía se basa en un algoritmo para identificar posibles víctimas reincidentes de violencia doméstica, después de que los funcionarios enfrentaran dudas sobre la efectividad del sistema.
El programa VioGén exige que los agentes de policía le hagan una serie de preguntas a la víctima. Las respuestas se ingresan en un software que produce una puntuación (que va desde ningún riesgo hasta riesgo extremo) destinada a identificar a las mujeres más vulnerables a abusos repetidos. La puntuación ayuda a determinar qué protección policial y otros servicios puede recibir una mujer.
Una investigación del New York Times del año pasado encontró que la policía dependía en gran medida de la tecnología y casi siempre aceptaba decisiones tomadas por el software VioGén. Algunas mujeres que el algoritmo calificó como sin riesgo o con bajo riesgo de sufrir más daños fueron posteriormente sometidas a nuevos abusos, incluidas docenas que fueron asesinadas, encontró el Times.
Los funcionarios españoles dijeron que los cambios anunciados esta semana eran parte de una actualización planificada desde hace mucho tiempo del sistema, introducida en 2007. Dijeron que el software había ayudado a los departamentos de policía con recursos limitados a proteger a las mujeres vulnerables y reducir el número de ataques repetidos.
En el sistema actualizado, VioGén 2, el software ya no podrá clasificar a las mujeres como sin riesgo. La policía también debe capturar más información sobre una víctima, lo que, según los funcionarios, les permitiría hacer predicciones más precisas.
Otros cambios apuntan a mejorar la colaboración entre las agencias gubernamentales involucradas en casos de violencia contra las mujeres, incluyendo facilitar el intercambio de información. En algunos casos, las víctimas se beneficiarán de planes de protección personalizados.
“El machismo está llamando a nuestras puertas y lo hace con una violencia como hace mucho que no veíamos”, declaró este miércoles en rueda de prensa Ana Redondo, ministra de Igualdad. “Ahora no es el momento de dar un paso atrás. Es hora de dar un paso adelante. »
El uso por parte de España de un algoritmo para guiar el manejo de la violencia de género es un ejemplo sorprendente de cómo los gobiernos están recurriendo a algoritmos para tomar decisiones sociales importantes, una tendencia que se espera que aumente a medida que se utiliza la inteligencia artificial. El sistema ha sido estudiado como un modelo potencial para gobiernos de otros países que intentan combatir la violencia contra las mujeres.
VioGén se creó con la creencia de que un algoritmo basado en un modelo matemático puede servir como una herramienta imparcial para ayudar a la policía a encontrar y proteger a mujeres que de otro modo pasarían desapercibidas. Las preguntas de sí o no incluyen: ¿Se utilizó un arma? ¿Ha habido problemas económicos? ¿El abusador demostró conductas controladoras?
Las víctimas clasificadas como de mayor riesgo recibieron mejor protección, incluidas patrullas periódicas cerca de sus hogares, acceso a refugios y vigilancia policial de los movimientos de sus atacantes. Aquellos con puntuaciones más bajas recibieron menos ayuda.
En noviembre, España tenía más de 100.000 casos activos de mujeres evaluados por VioGén, y alrededor del 85 por ciento de las víctimas estaban clasificadas como de bajo riesgo de ser lastimadas nuevamente por su agresor. Los agentes de policía españoles están entrenados para ignorar las recomendaciones de VioGén si la evidencia lo justifica, pero el Times encontró que las puntuaciones de riesgo fueron aceptadas aproximadamente el 95% de las veces.
Victoria Rosell, jueza española y ex delegada del gobierno en temas de violencia de género, dijo que era necesario un período de “autocrítica” para que el gobierno mejorara VioGén. Dijo que el sistema podría ser más preciso si extrajera información de bases de datos gubernamentales adicionales, incluidos los sistemas de salud y educación.
Natalia Morlas, presidenta de Somos Más, un grupo de derechos de las víctimas, dijo que acogía con agrado los cambios, que esperaba condujeran a una mejor evaluación de riesgos por parte de la policía.
«Calibrar adecuadamente el riesgo de la víctima es tan importante que puede salvar vidas», afirmó la señora Morlas. Añadió que era esencial mantener una estrecha vigilancia humana del sistema, porque una víctima «debe ser tratada por personas y no por máquinas».