Estereotipado
El riesgo de representación sesgada en los sistemas de inteligencia artificial se define como la generación de **estereotipos** o la **homogeneización perjudicial** de individuos, grupos, sociedades o culturas. Este fenómeno es el resultado directo de fallos en cómo el modelo construye su visión del mundo, manifestados específicamente a través de la **representación errónea** (datos incorrectos), la **sobrerrepresentación** (énfasis desmedido), la **subrepresentación** (datos insuficientes) o la **ausencia total de representación** de identidades, colectivos o perspectivas esenciales.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1224
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Garantizar la **diversidad y representatividad de los conjuntos de datos** de entrenamiento mediante la auditoría rigurosa de las fuentes para identificar y corregir fallas de representación (subrepresentación, sobrerrepresentación o ausencia total) de identidades y perspectivas esenciales, abordando la raíz de la formación de estereotipos. 2. Implementar **mecanismos algorítmicos de mitigación** (in-processing) que incorporen explícitamente **restricciones de equidad** y objetivos de imparcialidad durante la fase de desarrollo del modelo, ajustando los algoritmos para reducir el impacto de los sesgos inherentes y promover un equilibrio entre precisión y justicia. 3. Establecer un **Marco de Gobernanza de IA** que exija **auditorías continuas y monitoreo** de los resultados del sistema post-despliegue, empleando métricas de equidad para evaluar el desempeño a través de distintos grupos demográficos y asegurando la **supervisión humana** (Human-in-the-Loop) en puntos críticos para validar la imparcialidad y neutralidad de las decisiones.