Recolección de Datos Opaca
Se constata una vulneración directa del control y la autonomía del consumidor sobre su información sensible cuando las entidades corporativas extraen datos personales a gran escala (mediante técnicas de *scraping*) para utilizarlos en el entrenamiento de modelos de Inteligencia Artificial Generativa. El riesgo radica en el incumplimiento del principio de limitación de la finalidad: la información se emplea para un propósito —la creación de herramientas de IA— para el cual el titular jamás concedió su consentimiento explícito, socavando así la soberanía individual sobre el rastro digital.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit488
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Instaurar Protocolos de Consentimiento Explícito y Específico para la FinalidadImplementar mecanismos fehacientes para recabar el consentimiento previo, inequívoco e informado del titular de los datos, especificando de manera transparente la finalidad de entrenamiento de modelos de Inteligencia Artificial Generativa. Este proceso debe garantizar la plena transparencia y la posibilidad de un ejercicio ágil del derecho de oposición o retiro del consentimiento (opt-out), en estricto apego a los principios de lealtad y limitación de la finalidad.2. Ejecutar Evaluaciones de Impacto de Protección de Datos (EIPD) Pre-DespliegueRealizar de manera obligatoria una Evaluación de Impacto de Protección de Datos (EIPD) antes de la fase de entrenamiento de cualquier modelo de IA que involucre datos personales. Dicha evaluación debe asegurar la aplicación del principio de Protección de Datos Desde el Diseño y Por Defecto, e incluir el análisis de riesgos de reidentificación y la implementación de técnicas de minimización, seudonimización o anonimización de los conjuntos de datos de entrenamiento.3. Reforzar la Seguridad Perimetral Contra la Extracción de Datos (*Web Scraping*)Emplear soluciones avanzadas de gestión de bots y configuraciones de seguridad perimetral para identificar y bloquear actividades de extracción de datos no autorizada a gran escala. Esto incluye la observancia rigurosa del protocolo *robots.txt* para restringir el acceso de *scrapers* a contenido web que pueda contener información personal sensible.