Frameworks de Deep Learning
Los Modelos de Lenguaje Grande (LLM) se cimentan sobre la infraestructura de los *frameworks* de aprendizaje profundo. Es crucial notar que, en los últimos años, se han hecho públicas diversas vulnerabilidades inherentes a estas arquitecturas base. De hecho, los informes de los últimos cinco años destacan tres fallas recurrentes como las más comunes: los ataques por desbordamiento de búfer (*buffer overflow*), la corrupción de memoria y los problemas asociados con la validación inadecuada de entradas.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit21
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. **Prioridad Alta: Fortificación del Código y Validación de Entradas** Implementar el desarrollo de nuevos componentes de los *frameworks* de aprendizaje profundo utilizando lenguajes de programación con seguridad de memoria inherente (como Rust o Go), y establecer mecanismos de validación de entradas a nivel de código para verificar rigurosamente los límites y la composición de los datos en todas las operaciones que involucren *buffers*, previniendo así desbordamientos y corrupción de memoria. 2. **Prioridad Media: Gestión Proactiva de Vulnerabilidades** Establecer un programa de gestión de parches riguroso y automatizado que garantice la actualización inmediata de los *frameworks* de *deep learning* a las versiones que contengan mitigaciones para vulnerabilidades divulgadas (CVEs). Esto debe complementarse con la realización periódica de análisis de vulnerabilidades y pruebas de penetración en el entorno de desarrollo y pre-despliegue. 3. **Prioridad Baja: Endurecimiento del Entorno de Ejecución** Aplicar configuraciones de endurecimiento al sistema operativo que soporta el *framework* y los LLM, incluyendo la activación de técnicas de protección de la memoria como la Aleatorización del Diseño del Espacio de Direcciones (ASLR) y la Prevención de Ejecución de Datos (DEP). Asimismo, se debe aplicar el principio de mínimo privilegio y la segmentación estricta de la red para aislar los entornos de entrenamiento e inferencia.