8 paginas canonicas de riesgo
Privacidad
Riesgos de exposicion, fuga, vigilancia y reidentificacion de datos.
Corretaje de Datos
Comercialización de perfiles psicológicos detallados y características personales inferidas por IA a terceros sin conocimiento o consentimiento de los individuos perfilados.
Fuga de Privacidad
Riesgo de que el modelo revele información personal identificable (PII) memorizada durante el entrenamiento, exponiendo datos sensibles de individuos sin su consentimiento.
Inferencia Sensible
Deducción de información personal sensible (orientación sexual, estado de salud, creencias políticas) a partir de patrones de comportamiento aparentemente inocuos.
Memorización
Almacenamiento exacto de datos de entrenamiento en los pesos del modelo, permitiendo extracción de información sensible mediante queries específicas.
Re-identificación
Técnicas de vinculación y correlación de datasets aparentemente anonimizados que permiten la identificación de individuos, violando garantías de privacidad.
Vigilancia Masiva
Capacidad de realizar análisis automatizado y monitoreo continuo de poblaciones enteras mediante sistemas de IA, incluyendo reconocimiento facial y análisis de comportamiento a escala global.
Inferencia de Membresía
Ataques que determinan si un registro específico fue parte del conjunto de entrenamiento del modelo, violando expectativas de privacidad.
Inversión del Modelo
Técnicas que reconstruyen datos de entrenamiento sensibles (ej: rostros, registros médicos) a partir de los parámetros o outputs del modelo.