Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Pérdida de privacidad

La Inteligencia Artificial presenta un riesgo inherente de explotación de datos personales. Esta tecnología amplifica la capacidad y la tentación de construir perfiles detallados de los usuarios (profiling) con el fin de realizar una segmentación publicitaria sumamente eficaz, lo que suscita serias preocupaciones sobre la privacidad y el potencial de manipulación.

Fuente: MIT AI Risk Repositorymit86

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit86

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Priorizar la Minimización de Datos Implementar una política rigurosa de minimización de datos, asegurando que solo se recolecte y procese la cantidad mínima de información personal necesaria para la finalidad específica del sistema de IA, evitando categóricamente el uso de datos confidenciales o sensibles para el entrenamiento y la inferencia siempre que sea posible. 2. Aplicar Técnicas Avanzadas de Mejora de la Privacidad (PETs) Utilizar métodos técnicos de protección de datos como la seudonimización, el enmascaramiento de datos, la adición de ruido (perturbación), o la generación de datos sintéticos. Estos mecanismos deben aplicarse a los conjuntos de datos de entrenamiento para prevenir la extracción o inferencia de información sensible y la re-identificación de individuos. 3. Establecer Mecanismos de Consentimiento Informado y Transparencia Garantizar una base legal válida para todo procesamiento de datos, incluyendo la obtención de consentimiento informado, libre y explícito. La organización debe ser completamente transparente con los usuarios sobre cómo se recopilan sus datos, cómo se utilizan para la elaboración de perfiles (profiling) y con qué terceros se pueden compartir los resultados de la inferencia algorítmica.