Tipo 5: Armamentización criminal
El riesgo aquí radica en la posible instrumentalización de la Inteligencia Artificial por parte de actores o agentes criminales Estos podrían desarrollar sistemas de IA con el propósito deliberado de causar perjuicios, abarcando desde la facilitación de actos terroristas hasta la creación de herramientas avanzadas para evadir o subvertir las operaciones de las fuerzas de seguridad y el cumplimiento de la ley
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit05
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Prioridad Alta: Establecer mecanismos rigurosos de seguridad en el despliegue y verificación de la integridad del modelo para prevenir la modificación o el uso no autorizado de los sistemas de Inteligencia Artificial. Esto incluye la implementación de pruebas adversarias ("red teaming") y entrenamiento robusto para mitigar capacidades maliciosas *ex ante* y asegurar la alineación de objetivos del sistema. 2. Prioridad Media: Desarrollar y aplicar marcos regulatorios y sanciones estrictas que aborden explícitamente el uso indebido y la armamentización criminal de la IA, con un énfasis particular en la trazabilidad y la responsabilidad de los actores que facilitan el acceso a capacidades de IA de doble uso. 3. Prioridad Operacional: Instituir protocolos de monitoreo continuo y de intercambio de inteligencia de amenazas entre la industria y las agencias gubernamentales para identificar patrones de uso anómalos que sugieran una intención criminal, lo que permitiría una intervención rápida y la desactivación de sistemas comprometidos.
EVIDENCIA ADICIONAL
Es sencillo concebir que la tecnología de IA pueda causar daño si cae en manos de individuos con intenciones maliciosas. No se requiere de narrativas explícitas para comprender este riesgo; basta con contemplar la posibilidad de que un algoritmo diseñado originalmente para pilotar drones de entrega pueda ser reutilizado para transportar cargas explosivas, o que un algoritmo destinado a ofrecer terapia altere su objetivo para infligir trauma psicológico. Este es el riesgo inherente a la maleabilidad y el poder de los sistemas de inteligencia artificial avanzada