Real-world risks (Risks of misuse of dual-use items and technologies)
El uso indebido o malintencionado de la Inteligencia Artificial (IA) representa amenazas graves para la seguridad nacional, económica y de la salud pública. Dos ejemplos prominentes ilustran este peligro: en primer lugar, la IA puede reducir drásticamente las barreras de capacidad necesarias para que no expertos diseñen, sinteticen, adquieran y utilicen armas nucleares, biológicas, químicas y misiles. En segundo lugar, permite el desarrollo de armas cibernéticas capaces de lanzar ataques de amplio espectro contra múltiples objetivos, facilitado por métodos como la detección y explotación automatizada de vulnerabilidades.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit662
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Desarrollar e implementar programas de evaluación y pruebas adversariales (red teaming) rigurosos y estandarizados en modelos de IA de doble uso, con el objetivo de identificar y mitigar proactivamente las capacidades que puedan ser explotadas intencionalmente para la creación o uso de armas nucleares, biológicas, químicas (NBQ) o cibernéticas, previo a su despliegue. 2. Adoptar una estrategia de "seguridad por diseño" a lo largo de todo el ciclo de vida del desarrollo de la IA, que abarque la protección de la cadena de suministro, la sanitización de los datos de entrenamiento y la implementación de monitoreo de comportamiento continuo para detectar en tiempo real patrones de uso anómalo o malicioso post-despliegue. 3. Establecer políticas de gobernanza de IA que definan claramente el uso aceptable y apliquen controles de acceso estrictos, autenticación robusta y principios de mínimo privilegio a los modelos y datos, limitando la capacidad de actores maliciosos o no expertos para adquirir o manipular las funcionalidades de la tecnología.