Pérdida de privacidad
La Inteligencia Artificial presenta un riesgo inherente de explotación de datos personales. Esta tecnología amplifica la capacidad y la tentación de construir perfiles detallados de los usuarios (profiling) con el fin de realizar una segmentación publicitaria sumamente eficaz, lo que suscita serias preocupaciones sobre la privacidad y el potencial de manipulación.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit86
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Priorizar la Minimización de Datos Implementar una política rigurosa de minimización de datos, asegurando que solo se recolecte y procese la cantidad mínima de información personal necesaria para la finalidad específica del sistema de IA, evitando categóricamente el uso de datos confidenciales o sensibles para el entrenamiento y la inferencia siempre que sea posible. 2. Aplicar Técnicas Avanzadas de Mejora de la Privacidad (PETs) Utilizar métodos técnicos de protección de datos como la seudonimización, el enmascaramiento de datos, la adición de ruido (perturbación), o la generación de datos sintéticos. Estos mecanismos deben aplicarse a los conjuntos de datos de entrenamiento para prevenir la extracción o inferencia de información sensible y la re-identificación de individuos. 3. Establecer Mecanismos de Consentimiento Informado y Transparencia Garantizar una base legal válida para todo procesamiento de datos, incluyendo la obtención de consentimiento informado, libre y explícito. La organización debe ser completamente transparente con los usuarios sobre cómo se recopilan sus datos, cómo se utilizan para la elaboración de perfiles (profiling) y con qué terceros se pueden compartir los resultados de la inferencia algorítmica.