Democratización del acceso a tecnologías de doble uso
La proliferación de modelos de Inteligencia Artificial de Propósito General (IAPG), sobre todo los de código o pesos abiertos, está facilitando drásticamente el acceso a tecnologías con potencial de doble uso. Esto implica que personas sin experiencia avanzada pueden utilizar sistemas capaces de usos duales a un coste mínimo. Paralelamente, el avance continuo en las capacidades de estos modelos intensifica los riesgos de doble uso si son aprovechados por actores maliciosos. Por ejemplo, un modelo base de código abierto diseñado para generar datos de secuencia de alta calidad puede ser modificado para producir secuencias de proteínas que sirvan como candidatas para la síntesis de toxinas.
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1044
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.0 > Uso malicioso
Estrategia de mitigacion
1. Establecer y aplicar rigurosamente marcos regulatorios y de gobernanza a nivel nacional e internacional para los modelos de IA fundacionales de doble uso, con énfasis en la obligatoriedad de **Programas de Cumplimiento Interno (PCI)**. Estos programas deben incluir una debida diligencia exhaustiva (*Know Your Customer/Know Your Supplier*) para la clasificación de mercancías y la supervisión de los usuarios y usos finales prohibidos, mitigando la transferencia de tecnologías sensibles a actores maliciosos. 2. Imponer la implementación de medidas de seguridad intrínsecas bajo el principio de **"Seguridad desde el Diseño" (*Secure-by-Design*)** en los modelos de IAPG, especialmente en aquellos de pesos abiertos. Esto requiere la realización obligatoria de pruebas de *red-teaming* para evaluar vulnerabilidades de mal uso y la incorporación de controles de acceso lógico y mecanismos de filtrado rigurosos que impidan o dificulten la eliminación de salvaguardias para tareas de alto riesgo (e.g., síntesis de toxinas o desarrollo de armas QBRN). 3. Diseñar e implementar políticas de **diseminación controlada y escalonada** para modelos avanzados de doble uso. Se debe priorizar un enfoque de *transparencia selectiva* para fomentar la colaboración sin revelar detalles sensibles, y establecer sistemas de verificación de usuarios (*Access Control*) con capacidades de monitoreo de uso en tiempo real para detectar y neutralizar intentos de manipulación o usos indebidos por parte de actores no autorizados o sin la experiencia requerida.