Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA1 - Pre-despliegue

Datos no representativos

Los Datos No Representativos ocurren cuando la muestra empleada para el entrenamiento o ajuste fino de un modelo de IA no es estadísticamente suficiente para reflejar de forma fidedigna a la población o el contexto en el que operará el sistema. Esto incluye escenarios donde los datos están sesgados o, directamente, no logran capturar o medir el fenómeno esencial que el algoritmo está diseñado para predecir o analizar.

Fuente: MIT AI Risk Repositorymit1151

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit1151

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Recolección Inclusiva y Representativa de Datos Implementar un proceso riguroso de adquisición y curación de datos que garantice la representatividad demográfica y contextual de la población objetivo, actualizando fuentes desactualizadas y corrigiendo activamente sesgos conocidos para prevenir la replicación de inequidades históricas. 2. Balanceo de Datos y Aprendizaje de Representaciones Justas Aplicar técnicas de preprocesamiento, como el balanceo de la distribución de clases (por ejemplo, mediante sobremuestreo o la reasignación de pesos a instancias) o la transformación del espacio de características a través del Aprendizaje de Representaciones Justas (LFR), para minimizar la influencia de atributos sensibles en la fase de entrenamiento. 3. Auditorías de Sesgo Pre-Despliegue Establecer auditorías de sesgo rigurosas y evaluaciones de equidad antes del despliegue, utilizando métricas de imparcialidad específicas para identificar y cuantificar cualquier discriminación no intencionada en los resultados del modelo, asegurando la alineación con las expectativas sociales y normativas de equidad.