La Inteligencia Artificial debidamente entrenada con datos de calidad y bajo parámetros éticos que cumplan la legalidad, presenta un potencial significativo como herramienta de impacto social positivo al desempeñar un papel crucial en la detección y prevención de la violencia de género. Su aplicación responsable puede convertirse en un aliado estratégico para la protección de los derechos fundamentales de las mujeres, en especial de aquellas que se encuentran en situaciones de mayor vulnerabilidad.
En particular, la utilidad de la Inteligencia Artificial se manifiesta cuando se orienta a la prevención, a la identificación temprana de conductas de riesgo y al apoyo a las víctimas. Prueba de ello es el desarrollo de determinadas herramientas tecnológicas específicamente concebidas para hacer frente a la violencia de género.
Desde un enfoque jurídico y técnico, resulta incuestionable que el tratamiento masivo de datos procedentes de fuentes diversas —como registros judiciales, archivos policiales, redes sociales y otras bases de datos públicas— puede ser una herramienta eficaz en la lucha contra la violencia de género. Este tipo de soluciones tecnológicas persiguen la identificación proactiva de zonas geográficas o contextos sociales especialmente sensibles, en los que podrían desplegarse medidas concretas como el refuerzo de la presencia policial, el incremento de recursos psicosociales o el diseño de campañas de concienciación dirigidas a colectivos específicos.
No obstante, conviene subrayar que este tipo de sistemas predictivos deben someterse al marco normativo vigente en materia de Inteligencia Artificial, y en particular al Reglamento de Inteligencia Artificial (RIA)1, aprobado por la Unión Europea, que impone límites precisos al uso del perfilado automatizado, especialmente en contextos de riesgo para los derechos fundamentales. En el ámbito internacional, se observa una creciente preocupación por garantizar que el desarrollo de estas tecnologías se lleve a cabo desde una perspectiva inclusiva y libre de sesgos estructurales. Un ejemplo paradigmático lo constituye la Feminist AI Research Network (FAIR), impulsada por el Centro Internacional de Investigaciones para el Desarrollo (IDRC) con sede en Canadá. Esta red reúne a investigadoras, economistas y activistas de todo el mundo con el objetivo de corregir los sesgos algorítmicos y garantizar que los sistemas de IA respondan a criterios de equidad2.
En España existen dos herramientas importantes, dotadas con Inteligencia Artificial, que destacan en la protección y prevención de la violencia contra las mujeres:
El dispositivo inteligente denominado Bindi, creado por el Instituto Universitario de Estudios de Género de la Universidad Carlos III de Madrid a través del equipo UC3M4Safety3. Este dispositivo, que puede portarse de forma discreta (en forma de pulsera o colgante), se conecta por bluetooth con el teléfono móvil y monitoriza en tiempo real diversas variables fisiológicas y contextuales (como el ritmo cardíaco, la temperatura corporal, la conductividad de la piel, los cambios en la voz o el sonido ambiente). A partir del análisis de estos indicadores, el sistema es capaz de identificar estados emocionales alterados y posibles situaciones de peligro4.
BINDI obedece a una tecnología de computación afectiva multimodal, que integra Inteligencia Artificial y machine learning para detectar de manera autónoma situaciones de riesgo, sin necesidad de que la víctima accione manualmente el dispositivo, lo cual es crucial en casos de shock o inmovilización. En caso de activación, el sistema envía una alerta automática junto con la ubicación geográfica a un “círculo de protección” previamente configurado por la usuaria, así como a cuerpos policiales o servicios de emergencia.
Una de las características más relevantes de Bindi reside en su capacidad de actuación autónoma, permitiendo la emisión de alertas incluso sin intervención consciente de la persona usuaria, lo cual resulta especialmente valioso en contextos donde la víctima puede quedar bloqueada o experimentar una respuesta de parálisis ante su agresor.
El Sistema de Seguimiento Integral en los casos de Violencia de Género (VioGén) fue creado por el Ministerio del Interior en 2007 con el objetivo de articular una respuesta institucional unificada, eficaz y preventiva frente a la violencia de género. Esta herramienta centraliza la información relevante sobre las víctimas, los agresores y las medidas de protección adoptadas, permitiendo la valoración individualizada del riesgo y la adopción de medidas de protección ajustadas al mismo. La evaluación de dicho riesgo se lleva a cabo mediante un cuestionario policial estandarizado que, hasta la reciente reforma, arrojaba cinco niveles: no apreciado, bajo, medio, alto y extremo.
El nuevo sistema VioGén 2, presentado oficialmente en enero de 2025 por la Secretaría de Estado de Seguridad, supone una transformación integral del modelo anterior, tanto desde el punto de vista técnico como funcional. Entre los cambios más relevantes se encuentra la eliminación del nivel de riesgo “no apreciado”, lo que implica un cambio de paradigma: toda denuncia recibida activa automáticamente el sistema, de modo que ninguna situación inicial queda fuera del radar de seguimiento institucional. Además, el nivel “bajo” se subdivide en dos categorías, según existan o no medidas judiciales de protección vigentes, lo que permite una intervención más precisa5. Esta versión mejorada se apoya en un nuevo modelo algorítmico, calibrado con una mayor base empírica y dotado de una arquitectura tecnológica escalable, que permite integrar información procedente de múltiples bases de datos: policiales (SIP, SIGO), judiciales (SIRAJ), penitenciarias (SIAV), sociales (ONVIOS), de asistencia a víctimas (ATEMPRO) o incluso canales de comunicación como ALERTCOPS. Esta interoperabilidad persigue dotar de mayor coherencia y exhaustividad al análisis del riesgo (Secretaría de Estado de Seguridad, presentación institucional del sistema VioGén 2).
Desde una perspectiva procesal, cabe destacar que los datos recogidos por este tipo de tecnologías pueden alcanzar un grado de fiabilidad suficiente como para ser valorados como medios de prueba en un procedimiento penal6, siempre que se garantice la cadena de custodia y se respeten los principios de legalidad y proporcionalidad. Así pues, el uso de la Inteligencia Artificial, lejos de representar una amenaza, puede constituir una herramienta complementaria al sistema de protección institucional frente a la violencia de género.










nueva página del texto (beta)


