Ataques Overhead
Los *ataques de sobrecarga* (o *overhead attacks*), también designados como *ataques de energía-latencia*, constituyen una amenaza de seguridad centrada en la eficiencia operativa de los sistemas de Inteligencia Artificial. Su mecanismo se basa en que un adversario diseña intencionalmente lo que se conoce como 'ejemplos esponja' (*sponge examples*) para forzar al sistema a consumir la máxima cantidad de energía y recursos de cómputo posible. En consecuencia, esta clase de ataques representa un riesgo significativo para la estabilidad y viabilidad económica de las plataformas que integran Modelos de Lenguaje Grandes (LLMs).
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
3 - Otro
ID del riesgo
mit48
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. Establecer límites estrictos de consumo de recursos: Implementar mecanismos de limitación de tasa (rate limiting) y configurar umbrales máximos de tokens de salida y tiempos de ejecución (timeouts) para prevenir la sobrecarga del sistema y el agotamiento de recursos computacionales inducidos por el ataque. 2. Implementar Validación de Entrada Avanzada y Guardrails: Aplicar filtros semánticos y de patrones específicos a la entrada de usuario para detectar y bloquear "ejemplos esponja" o secuencias que inducen bucles de generación repetitiva (low-entropy decoding loops), interrumpiendo el ataque antes de la inferencia costosa. 3. Optimizar la Arquitectura del Modelo: Emplear técnicas como el pruning (poda) del modelo para reducir la superficie de vulnerabilidad y el consumo de recursos, mejorando la eficiencia de la inferencia y la resiliencia inherente del sistema frente a ataques de latencia-energía.