Riesgos de datos (Fuga de datos)
En el ciclo de vida de la Inteligencia Artificial (IA) —desde la investigación y el desarrollo hasta sus aplicaciones prácticas— una serie de desafíos de seguridad, como el procesamiento inadecuado de los datos, el acceso no autorizado a sistemas, los ataques maliciosos dirigidos o las interacciones diseñadas para el engaño, pueden comprometer la integridad y confidencialidad de la información, desembocando en fugas de datos sensibles y de carácter personal.
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit651
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
- Establecer un marco de gobernanza integral que vincule explícitamente el uso de sistemas de IA con políticas de gestión de riesgos, cumplimiento normativo y políticas de protección de la propiedad intelectual, exigiendo la revisión de seguridad y privacidad por equipos especializados antes de la implementación de modelos o flujos de datos. - Implementar controles rigurosos de seguridad de datos en todo el ciclo de vida de la IA, incluyendo la aplicación de técnicas de minimización de datos (Data Minimization), cifrado o anonimización para datos de entrenamiento y la aplicación de controles de acceso herméticos basados en roles y el principio de mínimo privilegio. - Desarrollar e implementar mecanismos de seguridad de prompts y respuestas en tiempo real para filtrar contenido sensible o malicioso, junto con soluciones de prevención de pérdida de datos (DLP) capaces de inspeccionar el tráfico no determinista de las interacciones con IA y detectar la exfiltración de información sensible.