Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Sesgo y equidad

Los modelos de Inteligencia Artificial de frontera albergan y magnifican los sesgos profundamente arraigados en los datos con los que son entrenados, reflejando así desigualdades históricas y estereotipos sociales preexistentes. Estos sesgos, a menudo sutiles y fuertemente incrustados, comprometen la aplicación ética y equitativa de los sistemas de IA, dificultando que la tecnología pueda mejorar la imparcialidad en sus decisiones. Además, la práctica de simplemente eliminar atributos explícitos como la raza o el género del conjunto de datos ha demostrado ser una solución ineficaz para el sesgo algorítmico, ya que los modelos pueden inferir estas categorías sensibles a partir de otros datos contextuales, tales como nombres, ubicaciones o factores que inicialmente parecen no relacionados.

Fuente: MIT AI Risk Repositorymit1246

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit1246

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Recopilación y Curación de Datos Éticamente Rigurosa Priorizar la adquisición de conjuntos de datos de entrenamiento que sean diversos, representativos y estén libres de sesgos históricos o estructurales. Aplicar técnicas avanzadas de pre-procesamiento, como la re-ponderación (reweighting) de instancias subrepresentadas o la perturbación de características (perturbation), para mitigar desequilibrios intrínsecos y la influencia de variables proxy que puedan inferir atributos sensibles (raza, género) desde datos no protegidos. 2. Desarrollo de Modelos con Restricciones de Equidad Integradas Incorporar explícitamente objetivos de equidad (fairness constraints) dentro de la función de pérdida durante el entrenamiento del modelo (in-processing). Esto incluye el uso de métodos de aprendizaje de representación justa (fair representation learning) y el des-sesgo adversarial (adversarial debiasing) para asegurar que el sistema no favorezca ni perjudique sistemáticamente a ningún subgrupo demográfico, garantizando que el rendimiento sea equitativo a través de todas las poblaciones relevantes. 3. Establecimiento de Gobernanza y Auditoría Continua Post-Despliegue Implementar mecanismos de monitoreo y auditoría automatizados para evaluar continuamente el rendimiento del modelo en el mundo real en función de métricas de equidad predefinidas, detectando y corrigiendo la deriva del sesgo (bias drift). Paralelamente, establecer un marco de transparencia que documente la justificación de las decisiones del modelo y garantice un mecanismo de supervisión humana (human-in-the-loop) para intervenir en casos de resultados potencialmente discriminatorios.