Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Sesgo y equidad

El *sesgo de datos discriminatorio* describe la sistemática marginación de grupos de personas que se gesta a partir de fallas o deficiencias en los datos fuente, ya sea por una representación distribucional inadecuada o por incorrección intrínseca. De no ser debidamente mitigado, este sesgo se manifestará en el modelo de IA, resultando en decisiones automatizadas que son inherentemente injustas. Es importante señalar que, aunque la palabra "sesgo" se utiliza comúnmente en otros contextos de representación de datos, aquí el foco está estrictamente en la dimensión *discriminatoria*, cuyos demás aspectos son abordados por otros riesgos de la inteligencia artificial

Fuente: MIT AI Risk Repositorymit881

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit881

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Implementación rigurosa de prácticas de gobernanza de datos que aseguren la recolección, el curado y el preprocesamiento de conjuntos de datos diversos y representativos. El objetivo primordial es eliminar la infrarrepresentación o incorrección intrínseca en los datos fuente que sistemáticamente marginan a grupos de personas, abordando así la causa fundamental del sesgo discriminatorio. 2. Establecimiento de marcos de auditoría algorítmica y monitoreo continuo para realizar pruebas de equidad (fairness testing) y detectar disparidades en el rendimiento del modelo entre subgrupos demográficos. Es crucial emplear métricas de equidad específicas, como la paridad estadística o la igualdad de oportunidades, para cuantificar y mitigar proactivamente cualquier manifestación de sesgo en las decisiones automatizadas. 3. Adopción de principios de transparencia y explicabilidad (XAI) en el diseño del sistema de IA para permitir que los resultados sesgados sean inteligibles y sujetos a revisión. La capacidad de rastrear las decisiones hasta los datos de entrada o el diseño algorítmico es esencial para la rendición de cuentas y para facilitar que los individuos afectados puedan impugnar decisiones injustas.