Malos usos de alto impacto más allá del propósito original
El potencial de riesgo radica en la capacidad de los sistemas de Inteligencia Artificial de propósito general (IA-PG) para ser explotados. Dado su amplio abanico de funcionalidades, si actores maliciosos (incluidos actores estatales) obtienen un acceso irrestricto o sin supervisión, podrían utilizar estas herramientas para ocasionar daños de magnitud considerable.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1043
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.0 > Uso malicioso
Estrategia de mitigacion
1. Implementación de Controles de Acceso y Monitoreo Continuo Aplicar el principio de mínimo privilegio (*least-privilege*) y una arquitectura de confianza cero (*zero-trust*), exigiendo autenticación multifactor robusta para el acceso a las interfaces del sistema de IA-PG. Es imperativo establecer un monitoreo continuo (24/7) de las interacciones y el comportamiento del modelo para identificar en tiempo real patrones de uso anómalos o indicativos de una explotación por parte de actores maliciosos. 2. Pruebas de Resiliencia Adversarial (AI Red Teaming) Realizar sistemáticamente ejercicios de *Red Teaming* de IA, simulando escenarios de ataque avanzados y usos maliciosos de alto impacto para exponer y remediar vulnerabilidades que podrían ser explotadas por actores con capacidades sofisticadas (incluidos actores estatales). Esta evaluación proactiva debe centrarse en la capacidad del modelo para resistir la extracción de información y la generación de contenido prohibido o dañino. 3. Fortalecimiento del Modelo y Gobernanza de Seguridad Integrar la seguridad desde el diseño (*security-by-design*) mediante el *fine-tuning* del modelo con datos curados y filtros de seguridad para condicionar su comportamiento y lograr que rechace consistentemente solicitudes que puedan facilitar ciberataques, manipulación social o la creación de armas. Complementar esta medida con un marco de gobernanza que codifique los umbrales de riesgo y las vías de escalamiento en cumplimiento con estándares como el NIST AI RMF o ISO/IEC 42001.