Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Tipo 5: Armamentización criminal

El riesgo aquí radica en la posible instrumentalización de la Inteligencia Artificial por parte de actores o agentes criminales Estos podrían desarrollar sistemas de IA con el propósito deliberado de causar perjuicios, abarcando desde la facilitación de actos terroristas hasta la creación de herramientas avanzadas para evadir o subvertir las operaciones de las fuerzas de seguridad y el cumplimiento de la ley

Fuente: MIT AI Risk Repositorymit05

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit05

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

1. Prioridad Alta: Establecer mecanismos rigurosos de seguridad en el despliegue y verificación de la integridad del modelo para prevenir la modificación o el uso no autorizado de los sistemas de Inteligencia Artificial. Esto incluye la implementación de pruebas adversarias ("red teaming") y entrenamiento robusto para mitigar capacidades maliciosas *ex ante* y asegurar la alineación de objetivos del sistema. 2. Prioridad Media: Desarrollar y aplicar marcos regulatorios y sanciones estrictas que aborden explícitamente el uso indebido y la armamentización criminal de la IA, con un énfasis particular en la trazabilidad y la responsabilidad de los actores que facilitan el acceso a capacidades de IA de doble uso. 3. Prioridad Operacional: Instituir protocolos de monitoreo continuo y de intercambio de inteligencia de amenazas entre la industria y las agencias gubernamentales para identificar patrones de uso anómalos que sugieran una intención criminal, lo que permitiría una intervención rápida y la desactivación de sistemas comprometidos.

EVIDENCIA ADICIONAL

Es sencillo concebir que la tecnología de IA pueda causar daño si cae en manos de individuos con intenciones maliciosas. No se requiere de narrativas explícitas para comprender este riesgo; basta con contemplar la posibilidad de que un algoritmo diseñado originalmente para pilotar drones de entrega pueda ser reutilizado para transportar cargas explosivas, o que un algoritmo destinado a ofrecer terapia altere su objetivo para infligir trauma psicológico. Este es el riesgo inherente a la maleabilidad y el poder de los sistemas de inteligencia artificial avanzada