Sesgo y equidad
Los sistemas de Inteligencia Artificial corren el riesgo de manifestar decisiones sesgadas. Este riesgo se materializa de dos formas principales: o bien el diseño mismo del sistema emplea criterios y reglas que inherentemente amplifican prejuicios existentes, o bien el modelo simplemente replica y perpetúa los sesgos presentes en los datos históricos con los que ha sido entrenado.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit126
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Auditoría y Curación de Datos para la Representatividad: Implementar protocolos rigurosos de auditoría en las fases de selección y curación de datos. Esto implica asegurar que los conjuntos de entrenamiento sean diversos y representativos de la población a la que se aplicará el sistema, corrigiendo desequilibrios y prejuicios históricos inherentes a los datos de origen para evitar su replicación. 2. Adopción de "Equidad por Diseño" y Algoritmos Conscientes del Sesgo: Integrar proactivamente consideraciones éticas y de equidad (*Fairness-by-Design*) en todo el ciclo de vida del desarrollo. Se deben emplear métricas de equidad explícitas (como la paridad demográfica o la igualdad de oportunidades) y diseñar algoritmos que consideren y minimicen activamente el impacto de atributos sensibles en las predicciones. 3. Establecimiento de Gobernanza, Transparencia y Monitoreo Continuo: Desarrollar un marco de gobernanza de IA que exija explicabilidad (*Explainable AI* - XAI) y transparencia algorítmica. Esto debe complementarse con la incorporación de supervisión humana significativa (*Human-in-the-Loop*) y sistemas de monitoreo post-despliegue para auditar continuamente los resultados del modelo y detectar cualquier manifestación de sesgo o regresión en tiempo real.