Plataformas de Computación GPU
El proceso de entrenamiento de los grandes modelos de lenguaje (LLM) exige una considerable inversión de recursos de unidades de procesamiento gráfico (GPU), un requisito que introduce una sofisticada preocupación de seguridad. En este contexto, se han desarrollado ataques de 'canal lateral' específicos para GPU. Estos ataques buscan extraer de forma encubierta los parámetros (o 'pesos') internos del modelo ya entrenado, comprometiendo así la propiedad intelectual y el conocimiento esencial codificado dentro del sistema.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit26
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. Implementar mecanismos robustos de aislamiento de memoria y hardware. Esto incluye el cifrado de la memoria de la GPU, la partición estricta de la caché, y la aplicación de aislamiento de espacio de nombres (namespace isolation) en arquitecturas de computación multi-inquilino. Dichas medidas buscan prevenir la fuga de información entre procesos o máquinas virtuales adyacentes. 2. Adoptar contramedidas algorítmicas y de programación para oscurecer la ejecución. Esto implica la utilización obligatoria de algoritmos de tiempo constante (constant-time algorithms) para que el tiempo de ejecución no dependa de los datos o claves secretas, así como la introducción de ruido y operaciones aleatorias (masking y blinding) para descorrelacionar las señales físicas con los parámetros sensibles del modelo. 3. Establecer sistemas de detección y respuesta en tiempo real. Desplegar herramientas de monitorización a nivel de kernel y shader de la GPU, integrando algoritmos de aprendizaje automático para la detección de anomalías. Estos sistemas deben ser capaces de identificar patrones de ataque sutiles (como intentos de extracción de modelos) y activar inmediatamente primitivas de respuesta (ej. vaciado de caché o limitación de recursos).