Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Capacidades de armamentización

El desarrollo intencional de capacidades de inteligencia artificial para su uso como armamento o medios destructivos.

Fuente: MIT AI Risk Repositorymit970

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit970

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

1. Implementación de un Marco Formal de Gobernanza de IA y Uso Aceptable Establecer e imponer marcos rigurosos de gobernanza y gestión de riesgos, con directrices claras que prohíban explícitamente el desarrollo intencional de capacidades de IA para fines destructivos o de armamentización. Esto debe incluir la integración de principios éticos (como la no maleficencia y la rendición de cuentas) en todo el ciclo de vida del sistema y la realización de evaluaciones de riesgos de impacto sociopolítico. 2. Monitoreo Continuo y Controles Técnicos de Seguridad y Uso Indebido Establecer sistemas de monitoreo continuo y detección de amenazas para identificar rápidamente cualquier manipulación, acceso no autorizado, o desviación del uso previsto del sistema de IA por parte de actores maliciosos o amenazas internas. Esto abarca la protección de los datos de entrenamiento, los parámetros del modelo, y los entornos de desarrollo contra inyecciones de datos maliciosos y ataques adversarios. 3. Garantía de Trazabilidad, Auditabilidad y Rendición de Cuentas Implementar mecanismos sólidos que aseguren la trazabilidad completa y la capacidad de auditoría de todas las acciones y decisiones críticas del sistema de IA. Es fundamental mantener documentación detallada sobre el cumplimiento normativo, las evaluaciones de riesgos y las medidas de mitigación para permitir la rendición de cuentas legal y operativa en caso de un incidente de uso indebido o daño masivo.