Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Sesgo de datos

El modelo incorpora y perpetúa los sesgos históricos y sociales que están intrínsecamente presentes en los datos utilizados para su entrenamiento y ajuste fino.

Fuente: MIT AI Risk Repositorymit1148

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1148

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Implementar protocolos de gobernanza y recolección de datos que garanticen la diversidad y la representación equitativa de todos los subgrupos demográficos relevantes en el conjunto de entrenamiento, mitigando así el sesgo de muestreo y selección desde la fuente. 2. Aplicar técnicas de pre-procesamiento de datos, tales como el reponderamiento (reweighting) o el sobremuestreo/submuestreo (oversampling/undersampling), para corregir los desequilibrios estadísticos y asegurar que la influencia de los grupos subrepresentados en el entrenamiento del modelo sea equitativa. 3. Integrar algoritmos conscientes de la equidad (fairness-aware algorithms) mediante la introducción de restricciones o funciones de regularización en el proceso de optimización del modelo, con el objetivo de minimizar la discriminación algorítmica y promover resultados no sesgados.