Capacidades de armamentización
El desarrollo intencional de capacidades de inteligencia artificial para su uso como armamento o medios destructivos.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit970
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Implementación de un Marco Formal de Gobernanza de IA y Uso Aceptable Establecer e imponer marcos rigurosos de gobernanza y gestión de riesgos, con directrices claras que prohíban explícitamente el desarrollo intencional de capacidades de IA para fines destructivos o de armamentización. Esto debe incluir la integración de principios éticos (como la no maleficencia y la rendición de cuentas) en todo el ciclo de vida del sistema y la realización de evaluaciones de riesgos de impacto sociopolítico. 2. Monitoreo Continuo y Controles Técnicos de Seguridad y Uso Indebido Establecer sistemas de monitoreo continuo y detección de amenazas para identificar rápidamente cualquier manipulación, acceso no autorizado, o desviación del uso previsto del sistema de IA por parte de actores maliciosos o amenazas internas. Esto abarca la protección de los datos de entrenamiento, los parámetros del modelo, y los entornos de desarrollo contra inyecciones de datos maliciosos y ataques adversarios. 3. Garantía de Trazabilidad, Auditabilidad y Rendición de Cuentas Implementar mecanismos sólidos que aseguren la trazabilidad completa y la capacidad de auditoría de todas las acciones y decisiones críticas del sistema de IA. Es fundamental mantener documentación detallada sobre el cumplimiento normativo, las evaluaciones de riesgos y las medidas de mitigación para permitir la rendición de cuentas legal y operativa en caso de un incidente de uso indebido o daño masivo.