Privacidad y Fuga de Datos
Los modelos preentrenados a gran escala, al asimilar vastos conjuntos de datos extraídos de internet, conllevan el riesgo inherente de retener y potencialmente divulgar información de carácter privado. Este material sensible incluye, por ejemplo, números telefónicos, direcciones de correo electrónico y domicilios particulares.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit68
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
- **Sanitización y Minimización Rigurosa de Datos de Entrenamiento** La principal medida consiste en implementar un proceso exhaustivo de **Data Sanitization** y **Minimización de Datos** previo a la alimentación del modelo. Esto implica la aplicación de técnicas de anonimización, seudonimización y redacción automatizada para identificar y eliminar de manera proactiva toda la Información de Identificación Personal (IIP) y datos sensibles (por ejemplo, direcciones, números de teléfono, correos electrónicos) de los vastos conjuntos de datos de entrenamiento, asegurando que solo se procesen los datos estrictamente necesarios. - **Aplicación de Mecanismos de Privacidad Diferencial (Differential Privacy)** Integrar la Privacidad Diferencial (Differential Privacy) como una técnica fundamental durante la fase de entrenamiento. Este enfoque añade "ruido" matemáticamente controlado al proceso de aprendizaje del modelo, lo que garantiza formalmente que la contribución de cualquier punto de datos individual al modelo final sea insignificante, impidiendo así la memorización y posterior extracción de registros sensibles específicos. - **Auditoría Previa al Despliegue y Pruebas Adversarias (Red Teaming)** Establecer un programa continuo de pruebas de seguridad ofensivas (Red Teaming) y auditorías de datos en el modelo terminado antes de su puesta en producción. Estas pruebas deben simular consultas adversarias y ataques de extracción de datos para identificar y mitigar activamente las vulnerabilidades que podrían permitir al modelo filtrar información sensible que haya retenido inadvertidamente.