Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Riesgos para la privacidad

Los modelos de IA de propósito general presentan la capacidad de 'filtrar' información de los datos individuales utilizados durante su entrenamiento. Esta vulnerabilidad es especialmente crítica en modelos futuros que manejen datos personales sensibles (salud, finanzas), pudiendo provocar fugas de privacidad muy graves. Adicionalmente, estos sistemas, como los Grandes Modelos de Lenguaje (LLMs), no solo fugan información pasivamente, sino que pueden potenciar activamente el abuso de la privacidad, facilitando la búsqueda más eficiente de datos sensibles en la red o en filtraciones, e incluso permitiendo a los usuarios *inferir* información delicada sobre individuos.

Fuente: MIT AI Risk Repositorymit734

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit734

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Aplicar Anónimización, Minimización y Privacidad Diferencial Rigurosa Implementar la anonimización (incluyendo la redacción y seudonimización) y la minimización de los conjuntos de datos de entrenamiento para asegurar que solo se procese la información estrictamente necesaria y que se eliminen los identificadores personales. Adicionalmente, utilizar técnicas de Privacidad Diferencial para inyectar ruido, lo que impide que el modelo memorice y filtre información individual sensible por medio de la inferencia. 2. Establecer Controles de Acceso Basados en Roles (RBAC) y Cifrado Integral Instituir un modelo de control de acceso de mínimo privilegio, como el Control de Acceso Basado en Roles (RBAC) con autenticación multifactor (MFA), para restringir el uso del modelo y el acceso a los datos subyacentes únicamente al personal autorizado. Garantizar el cifrado de datos robusto tanto en reposo como en tránsito para proteger la información contra la exposición no autorizada en caso de una brecha de seguridad. 3. Implementar Filtrado de Salida Contextual y Monitoreo en Tiempo Real Desarrollar y mantener mecanismos de filtrado de salida (output filtering) y de validación de entradas que actúen como barreras de seguridad, previniendo la revelación inadvertida de información sensible memorizada o la ejecución de ataques de extracción. Complementar esta medida con un monitoreo continuo de las interacciones y los registros de actividad del LLM para detectar y responder proactivamente a patrones de uso anómalos o intentos de fuga de datos.