Acceso terrorista
La posibilidad de que sistemas de inteligencia artificial avanzados sean instrumentalizados por actores no estatales hostiles, como grupos terroristas, con fines perjudiciales o destructivos.
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit966
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. IMPLEMENTACIÓN DE UN MARCO DE GOBERNANZA Y REGULACIÓN ESTRICTO Establecer un marco legal y regulatorio a nivel internacional que imponga obligaciones estrictas a los proveedores de modelos de IA de propósito general con potencial de riesgo sistémico. Esto debe incluir la obligación de limitar el acceso mediante controles de seguridad rigurosos (autenticación multinivel, Zero Trust) y el establecimiento de mecanismos de rendición de cuentas que prevengan la adquisición y el uso indebido por parte de actores no estatales hostiles 2. FORTALECIMIENTO DE LA CIBERRESILIENCIA Y DEFENSA ACTIVA Desarrollar e implementar capacidades de IA defensiva (IA-enabled defense) para proteger infraestructuras críticas y sistemas de información. Esto incluye realizar pruebas adversariales continuas (*adversarial testing*) para evaluar y mejorar la robustez de los modelos frente a la manipulación, el *model stealing* y los ataques de denegación de servicio (DDoS) impulsados por IA, así como la implementación de algoritmos de detección de anomalías y *deepfakes* 3. FOMENTO DE LA COLABORACIÓN MULTISECTORIAL Y SUPERVISIÓN HUMANA Promover una colaboración activa entre agencias gubernamentales, instituciones académicas y el sector tecnológico para compartir inteligencia sobre amenazas y vulnerabilidades emergentes. Además, integrar mecanismos de supervisión humana constante (*Human-in-the-Loop*) en el ciclo de vida de los sistemas de IA, asegurando la capacidad de anular o desactivar el sistema ante comportamientos que indiquen instrumentalización o explotación maliciosa