Lenguaje de Programación
El desarrollo de la vasta mayoría de los Modelos de Lenguaje Grande (LLMs) se fundamenta en el ecosistema del lenguaje Python. Esta dependencia conlleva un riesgo sistémico: las vulnerabilidades de seguridad que residen en los propios intérpretes de Python —el entorno de ejecución del código— pueden exponer o comprometer la integridad y estabilidad de los modelos que se ejecutan sobre ellos.
ENTIDAD
3 - Otro
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit20
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
- Implementar una política rigurosa y continua de gestión de parches (patch management) para el intérprete de Python y todas sus dependencias críticas. Esto incluye la actualización inmediata de la pila de software a las versiones que mitiguen las vulnerabilidades de seguridad conocidas (CVEs), asegurando la integridad del entorno de ejecución del Modelo de Lenguaje Grande (LLM). - Establecer un control estricto de la cadena de suministro de software (Software Supply Chain Security) para el ecosistema Python. Esto implica el uso de herramientas de escaneo para detectar dependencias obsoletas o vulnerables, la verificación de la procedencia (provenance) de las librerías de terceros y la creación de una Lista de Materiales de Software (SBOM) para todos los componentes. - Aplicar el Principio de Mínimo Privilegio (Principle of Least Privilege) y la segregación ambiental. Esto se traduce en ejecutar el modelo y sus procesos de intérprete Python dentro de entornos aislados (como contenedores o entornos virtuales) con el conjunto de permisos más restringido posible, limitando la capacidad de un atacante para realizar una escalada de privilegios.