Vulnerabilidades de Hardware
La existencia de vulnerabilidades en los sistemas de hardware que soportan el entrenamiento y la ejecución (inferencia) de los Modelos de Lenguaje Grande (LLM) introduce desafíos de seguridad cruciales en las aplicaciones basadas en esta tecnología
ENTIDAD
3 - Otro
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit24
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. Implementar controles de acceso estrictos y segregación de privilegios (Zero Trust) a toda la infraestructura de hardware y entornos de entrenamiento/inferencia, asegurando la trazabilidad de accesos mediante auditorías continuas. 2. Establecer una política rigurosa y proactiva de aplicación de parches y gestión de la obsolescencia para el *software* de soporte (sistemas operativos, *firmware* y *hypervisores*) que interactúa directamente con los componentes de hardware. 3. Asegurar la cadena de suministro del hardware, realizando una verificación y validación exhaustiva de los componentes utilizados en los aceleradores de IA (GPUs, ASICs) para mitigar riesgos de *backdoors* o fallos de diseño introducidos durante la fabricación. 4. Aislar el entorno de ejecución del modelo mediante el uso de contenedores y *sandboxes* con el principio de mínimo privilegio, e implementar monitoreo a nivel de *kernel* para detectar y mitigar intentos de explotación que busquen manipular la infraestructura subyacente.