Volver al repositorio MIT
2. Privacidad y Seguridad3 - Otro

Ataques Overhead

Los *ataques de sobrecarga* (o *overhead attacks*), también designados como *ataques de energía-latencia*, constituyen una amenaza de seguridad centrada en la eficiencia operativa de los sistemas de Inteligencia Artificial. Su mecanismo se basa en que un adversario diseña intencionalmente lo que se conoce como 'ejemplos esponja' (*sponge examples*) para forzar al sistema a consumir la máxima cantidad de energía y recursos de cómputo posible. En consecuencia, esta clase de ataques representa un riesgo significativo para la estabilidad y viabilidad económica de las plataformas que integran Modelos de Lenguaje Grandes (LLMs).

Fuente: MIT AI Risk Repositorymit48

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

3 - Otro

ID del riesgo

mit48

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA

Estrategia de mitigacion

1. Establecer límites estrictos de consumo de recursos: Implementar mecanismos de limitación de tasa (rate limiting) y configurar umbrales máximos de tokens de salida y tiempos de ejecución (timeouts) para prevenir la sobrecarga del sistema y el agotamiento de recursos computacionales inducidos por el ataque. 2. Implementar Validación de Entrada Avanzada y Guardrails: Aplicar filtros semánticos y de patrones específicos a la entrada de usuario para detectar y bloquear "ejemplos esponja" o secuencias que inducen bucles de generación repetitiva (low-entropy decoding loops), interrumpiendo el ataque antes de la inferencia costosa. 3. Optimizar la Arquitectura del Modelo: Emplear técnicas como el pruning (poda) del modelo para reducir la superficie de vulnerabilidad y el consumo de recursos, mejorando la eficiencia de la inferencia y la resiliencia inherente del sistema frente a ataques de latencia-energía.