Todas las categorias de riesgos

8 paginas canonicas de riesgo

Privacidad

Riesgos de exposicion, fuga, vigilancia y reidentificacion de datos.

DaSeveridad 7/10

Corretaje de Datos

Comercialización de perfiles psicológicos detallados y características personales inferidas por IA a terceros sin conocimiento o consentimiento de los individuos perfilados.

PrSeveridad 7/10

Fuga de Privacidad

Riesgo de que el modelo revele información personal identificable (PII) memorizada durante el entrenamiento, exponiendo datos sensibles de individuos sin su consentimiento.

InSeveridad 7/10

Inferencia Sensible

Deducción de información personal sensible (orientación sexual, estado de salud, creencias políticas) a partir de patrones de comportamiento aparentemente inocuos.

MeSeveridad 7/10

Memorización

Almacenamiento exacto de datos de entrenamiento en los pesos del modelo, permitiendo extracción de información sensible mediante queries específicas.

RiSeveridad 7/10

Re-identificación

Técnicas de vinculación y correlación de datasets aparentemente anonimizados que permiten la identificación de individuos, violando garantías de privacidad.

SuSeveridad 7/10

Vigilancia Masiva

Capacidad de realizar análisis automatizado y monitoreo continuo de poblaciones enteras mediante sistemas de IA, incluyendo reconocimiento facial y análisis de comportamiento a escala global.

MbSeveridad 6/10

Inferencia de Membresía

Ataques que determinan si un registro específico fue parte del conjunto de entrenamiento del modelo, violando expectativas de privacidad.

IvSeveridad 6/10

Inversión del Modelo

Técnicas que reconstruyen datos de entrenamiento sensibles (ej: rostros, registros médicos) a partir de los parámetros o outputs del modelo.