Privacidad y Protección de Datos
Evaluar el impacto real de los sistemas de IA generativa requiere un análisis crítico de cómo sus proveedores gestionan y aprovechan los datos de los usuarios. La protección efectiva de la información personal, y de la privacidad tanto individual como grupal, depende intrínsecamente de tres pilares: los datos de entrenamiento, las metodologías de aprendizaje y las medidas de ciberseguridad aplicadas.
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit170
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
- Implementar Técnicas Avanzadas de Saneamiento de Datos - Establecer una Política de Seguridad de IA y Concientización Continua del Usuario - Aplicar Controles de Acceso Estrictos y Soluciones de Prevención de Pérdida de Datos (DLP) en Tiempo Real
EVIDENCIA ADICIONAL
El pilar fundamental de cualquier sistema de Inteligencia Artificial reside en su conjunto de datos. Es imperativo que la recopilación y el aseguramiento de esta información —utilizada para su entrenamiento o adaptación— se realicen bajo un marco de legalidad y consentimiento explícito, adherido estrictamente a las normativas de las jurisdicciones tanto de los sujetos de datos como de la entidad recolectora. La preocupación es doble: la propiedad intelectual y la privacidad. Los modelos generativos han demostrado la capacidad de regurgitar contenido protegido por derechos de autor [254] y de exponer información altamente sensible o de identificación personal (PII), abarcando desde registros médicos privados hasta datos de contacto [49]. Por ello, los proveedores deben garantizar que el procesamiento y la eventual compartición de estos datos con terceros respeten siempre las decisiones y el consentimiento del individuo. La negligencia en este punto es crítica, pues los datos sensibles son un vector potencial para perjuicios subsecuentes, manifestándose en ataques adversarios, brechas de seguridad o graves violaciones a la privacidad. En consecuencia, la conformidad con regulaciones como la Ley de Privacidad del Consumidor de California (CCPA) [4] puede, en ocasiones, exigir la onerosa tarea de reentrenar retroactivamente el sistema de IA.