Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso3 - Otro

Guerra

Los riesgos asociados con el uso de la Inteligencia Artificial para potenciar la eficacia, o bien para exacerbar las vulnerabilidades y fallas, de las armas de naturaleza nuclear, química, biológica y radiológica.

Fuente: MIT AI Risk Repositorymit923

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit923

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

1. Implementación de Evaluaciones de Riesgo y Auditorías Externas Pre-despliegue: Realización obligatoria de evaluaciones de riesgo sistémico y auditorías técnicas por parte de entidades independientes antes de la puesta en marcha de sistemas de IA de propósito general, centrándose específicamente en la robustez y la prevención de la amplificación de riesgos NBQR (nuclear, biológico, químico y radiológico). 2. Establecimiento de Marcos de Gobernanza con Autorización Multipartita: Diseño e implementación de estructuras de gobernanza sólidas, incluyendo comités de riesgo a nivel directivo y la exigencia de autorización de múltiples partes para la manipulación o el despliegue de modelos de IA en escenarios asociados con la guerra y el daño masivo. 3. Promoción del Intercambio de Información de Seguridad y Reporte de Incidentes: Creación de mecanismos formales para la compartición estructurada de informes de incidentes de seguridad y vulnerabilidades entre actores relevantes (ej. sector público, industria e investigadores) a fin de mitigar la velocidad y el impacto de los ataques adversarios y el uso malicioso.