Inyección
Inyección de Prompts
Técnica de ataque mediante la cual se manipulan las entradas del usuario para eludir filtros de seguridad, controles de contenido y restricciones de comportamiento del modelo (también conocida como Jailbreaking).
Xiaogeng Liu, Zhiyuan Yu, Yizhe Zhang, Ning Zhang, Chaowei Xiao
Estrategia de Mitigación
Implementar validación robusta de entradas, separación explícita entre instrucciones del sistema y datos de usuario, y aplicar técnicas de Prompt Engineering defensivo.
Número Atómico
1
Pi
ID del riesgo
h-01
Severidad
8/10
Nivel de Severidad