Uso Malicioso (Intencional)
Facilitar a actores maliciosos la capacidad de infligir daño masivo o sistémico.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit308
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.0 > Uso malicioso
Estrategia de mitigacion
1. Implementación de un Marco de Gobernanza de "Doble Uso" Establecer políticas de acceso y uso estrictas para modelos de IA con capacidades de alto riesgo (e.g., biotecnología, ciberataques autónomos), aplicando el principio de menor privilegio, auditoría de código y una rigurosa evaluación de riesgo previa al lanzamiento para restringir la capacidad de actores maliciosos para escalar el daño. 2. Integración Obligatoria de Pruebas Adversarias Proactivas Incorporar de forma continua metodologías de "red teaming" y simulaciones de ataque (incluyendo inyección de *prompts* y extracción de modelo) en todo el ciclo de vida del desarrollo. Esto debe enfocarse en fortalecer la robustez y resiliencia de los sistemas frente a la manipulación intencional de *outputs* (e.g., propagación de propaganda, *deepfakes*). 3. Mecanismos de Trazabilidad y Responsabilidad Inmutables Desarrollar y mantener registros de auditoría (*audit trails*) inmutables que rastreen las decisiones y salidas del modelo, garantizando la trazabilidad forense. Paralelamente, establecer líneas claras de responsabilidad legal y operativa para los resultados adversos del sistema (tanto a nivel técnico como organizacional).
EVIDENCIA ADICIONAL
En esta sección, examinaremos las diversas formas en que el uso malintencionado de IAs avanzadas podría plantear riesgos catastróficos. Estos incluyen la ingeniería de armas bioquímicas, el despliegue de inteligencias artificiales descontroladas (o 'rebeldes'), el uso de IAs persuasivas para diseminar propaganda y erosionar la realidad consensuada, y la instrumentalización de la censura y la vigilancia masiva para concentrar el poder de manera irreversible.