Volver al repositorio MIT
2. Privacidad y Seguridad3 - Otro

Vulnerabilidades de Hardware

La existencia de vulnerabilidades en los sistemas de hardware que soportan el entrenamiento y la ejecución (inferencia) de los Modelos de Lenguaje Grande (LLM) introduce desafíos de seguridad cruciales en las aplicaciones basadas en esta tecnología

Fuente: MIT AI Risk Repositorymit24

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit24

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA

Estrategia de mitigacion

1. Implementar controles de acceso estrictos y segregación de privilegios (Zero Trust) a toda la infraestructura de hardware y entornos de entrenamiento/inferencia, asegurando la trazabilidad de accesos mediante auditorías continuas. 2. Establecer una política rigurosa y proactiva de aplicación de parches y gestión de la obsolescencia para el *software* de soporte (sistemas operativos, *firmware* y *hypervisores*) que interactúa directamente con los componentes de hardware. 3. Asegurar la cadena de suministro del hardware, realizando una verificación y validación exhaustiva de los componentes utilizados en los aceleradores de IA (GPUs, ASICs) para mitigar riesgos de *backdoors* o fallos de diseño introducidos durante la fabricación. 4. Aislar el entorno de ejecución del modelo mediante el uso de contenedores y *sandboxes* con el principio de mínimo privilegio, e implementar monitoreo a nivel de *kernel* para detectar y mitigar intentos de explotación que busquen manipular la infraestructura subyacente.