Guerra
Los riesgos asociados con el uso de la Inteligencia Artificial para potenciar la eficacia, o bien para exacerbar las vulnerabilidades y fallas, de las armas de naturaleza nuclear, química, biológica y radiológica.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit923
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Implementación de Evaluaciones de Riesgo y Auditorías Externas Pre-despliegue: Realización obligatoria de evaluaciones de riesgo sistémico y auditorías técnicas por parte de entidades independientes antes de la puesta en marcha de sistemas de IA de propósito general, centrándose específicamente en la robustez y la prevención de la amplificación de riesgos NBQR (nuclear, biológico, químico y radiológico). 2. Establecimiento de Marcos de Gobernanza con Autorización Multipartita: Diseño e implementación de estructuras de gobernanza sólidas, incluyendo comités de riesgo a nivel directivo y la exigencia de autorización de múltiples partes para la manipulación o el despliegue de modelos de IA en escenarios asociados con la guerra y el daño masivo. 3. Promoción del Intercambio de Información de Seguridad y Reporte de Incidentes: Creación de mecanismos formales para la compartición estructurada de informes de incidentes de seguridad y vulnerabilidades entre actores relevantes (ej. sector público, industria e investigadores) a fin de mitigar la velocidad y el impacto de los ataques adversarios y el uso malicioso.