Volver al repositorio MIT
2. Privacidad y Seguridad1 - Pre-despliegue

Frameworks de Deep Learning

Los Modelos de Lenguaje Grande (LLM) se cimentan sobre la infraestructura de los *frameworks* de aprendizaje profundo. Es crucial notar que, en los últimos años, se han hecho públicas diversas vulnerabilidades inherentes a estas arquitecturas base. De hecho, los informes de los últimos cinco años destacan tres fallas recurrentes como las más comunes: los ataques por desbordamiento de búfer (*buffer overflow*), la corrupción de memoria y los problemas asociados con la validación inadecuada de entradas.

Fuente: MIT AI Risk Repositorymit21

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit21

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA

Estrategia de mitigacion

1. **Prioridad Alta: Fortificación del Código y Validación de Entradas** Implementar el desarrollo de nuevos componentes de los *frameworks* de aprendizaje profundo utilizando lenguajes de programación con seguridad de memoria inherente (como Rust o Go), y establecer mecanismos de validación de entradas a nivel de código para verificar rigurosamente los límites y la composición de los datos en todas las operaciones que involucren *buffers*, previniendo así desbordamientos y corrupción de memoria. 2. **Prioridad Media: Gestión Proactiva de Vulnerabilidades** Establecer un programa de gestión de parches riguroso y automatizado que garantice la actualización inmediata de los *frameworks* de *deep learning* a las versiones que contengan mitigaciones para vulnerabilidades divulgadas (CVEs). Esto debe complementarse con la realización periódica de análisis de vulnerabilidades y pruebas de penetración en el entorno de desarrollo y pre-despliegue. 3. **Prioridad Baja: Endurecimiento del Entorno de Ejecución** Aplicar configuraciones de endurecimiento al sistema operativo que soporta el *framework* y los LLM, incluyendo la activación de técnicas de protección de la memoria como la Aleatorización del Diseño del Espacio de Direcciones (ASLR) y la Prevención de Ejecución de Datos (DEP). Asimismo, se debe aplicar el principio de mínimo privilegio y la segmentación estricta de la red para aislar los entornos de entrenamiento e inferencia.