Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Problemas de Datos

Estimados espectadores, cuando hablamos de *machine learning* impulsado por datos, no podemos ignorar la *calidad de la materia prima*. Los algoritmos se enfrentan a serias dificultades debido a problemas como la heterogeneidad, la insuficiencia, el desequilibrio, la falta de confianza o la incertidumbre en la información. Sin embargo, el más insidioso de estos problemas es el *sesgo* (*bias*). Este sesgo es, en esencia, una característica humana que se filtra durante la recolección y el etiquetado de los datos, arraigándose a veces en contextos históricos, culturales o geográficos. El resultado es crítico: si los datos son sesgados, el modelo resultante será un *modelo sesgado*, incapaz de proporcionar un análisis apropiado o imparcial. Ser conscientes de este riesgo es el primer paso, pero evitar que estos sesgos terminen por corromper nuestros modelos sigue siendo, académicamente hablando, una tarea profundamente compleja y desafiante.

Fuente: MIT AI Risk Repositorymit560

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit560

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. **Establecer un Marco de Gobernanza Riguroso desde la Fase de Concepción del Modelo:** Esto implica iniciar la vigilancia del sesgo en la fase conceptual, definiendo preguntas de investigación que anticipen posibles áreas de sesgo. Se requiere la revisión sistemática del ciclo de vida del modelo por un equipo de desarrollo multidisciplinario y diverso para garantizar la alineación con los principios de Diversidad, Equidad e Inclusión (DEI) de la institución. 2. **Garantizar la Equidad de los Datos Mediante Estrategias de Preprocesamiento:** Se debe llevar a cabo una auditoría y evaluación sistemática (p. ej., análisis exploratorio, pruebas estadísticas) para medir la distribución de atributos y las disparidades. La estrategia central de mitigación es el **aumento y reequilibrio de los datos de entrenamiento** (Representative Data Collection) para asegurar que todos los subgrupos poblacionales estén representados de manera precisa y equitativa, subsanando la insuficiencia o el desequilibrio de la muestra. 3. **Implementar Técnicas Algorítmicas de Mitigación y Evaluación Post-Entrenamiento:** Consiste en **ajustar la función de optimización del modelo** (función de pérdida) con métodos conscientes de la equidad (como MinDiff o Counterfactual Logit Pairing) para penalizar las discrepancias de rendimiento o de distribución de predicciones vinculadas a atributos sensibles. Adicionalmente, se debe **evaluar el rendimiento del modelo de forma desagregada** por grupos para identificar cualquier disparidad residual en las métricas predictivas.