Violaciones de privacidad
La *violación de la privacidad* se define como el menoscabo de la intimidad personal provocado por la operación de sistemas algorítmicos. Este riesgo se materializa a través de tres mecanismos primarios: la habilitación de un flujo indeseado de información privada sensible, la inducción de una sensación de vigilancia constante en el usuario, o la simple recolección de datos sin el consentimiento explícito e informado. Además, las violaciones más complejas surgen cuando el sistema realiza inferencias predictivas que extrapolan información más allá de lo que el usuario ha divulgado abiertamente, o cuando datos e inferencias algorítmicas obtenidas en un contexto específico son aplicadas a un contexto distinto sin el conocimiento o la autorización del individuo, fenómeno facilitado por los vastos flujos de *big data*.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit151
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Implementar de manera obligatoria la *Privacidad desde el Diseño* (PbD) y *por Defecto*, asegurando que la arquitectura de los sistemas algorítmicos integre proactivamente la protección de datos personales. Esto implica aplicar el principio de minimización de datos, limitando la recolección y el tratamiento a lo estrictamente necesario para el fin explícito declarado, y estableciendo por defecto la configuración más protectora de la privacidad para el usuario. 2. Reforzar los mecanismos para obtener el *consentimiento explícito e informado* del titular de los datos. Esto debe ser granular y específico para la finalidad de tratamiento, incluyendo la posibilidad de *inferencia* de información sensible a partir de los datos recopilados. Se debe garantizar una total visibilidad y transparencia sobre cómo se procesan los datos y cómo se utilizan las inferencias algorítmicas en contextos secundarios. 3. Aplicar *técnicas de preservación de la privacidad* (Privacy-Preserving Techniques) como la anonimización, la seudonimización avanzada (por ejemplo, con cifrado homomórfico) y la generalización. Estas técnicas deben ser utilizadas rigurosamente en los conjuntos de *big data* para mitigar el riesgo de re-identificación de individuos o la deducción no autorizada de atributos sensibles por parte de modelos predictivos.
EVIDENCIA ADICIONAL
La analítica de datos de consumo demostró tener una capacidad inferencial que superó el conocimiento del propio individuo, al deducir con precisión un embarazo basándose en los patrones de compra de su hija. Este fenómeno subraya la compleja intersección entre el *big data*, la capacidad predictiva de la IA y el riesgo inherente a la privacidad y la autonomía informativa.