Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Rendimiento Dispar

El Rendimiento Dispar en la IA Generativa El *rendimiento dispar* (disparate performance), en el contexto de la evaluación del impacto de los sistemas de Inteligencia Artificial Generativa, se refiere a una diferencia sistemática y medible en cómo opera un sistema cuando interactúa con distintos subgrupos de la población. Esta varianza en el funcionamiento no es aleatoria; es un indicador de que el modelo produce resultados o consecuencias de calidad inequitativa o injusta para ciertas comunidades. Por ejemplo, si una herramienta de generación de imágenes es consistentemente menos precisa al crear contenido para un grupo racial específico, se está manifestando un rendimiento dispar que conduce a resultados desiguales. Este es un riesgo fundamental que requiere una auditoría rigurosa para garantizar la equidad algorítmica.

Fuente: MIT AI Risk Repositorymit169

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit169

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.3 > Rendimiento desigual entre grupos

Estrategia de mitigacion

1. Priorizar la ingeniería de datos en la fase de entrenamiento mediante la adquisición de **conjuntos de datos diversos y representativos**. Implementar técnicas de **reescalado de datos (reweighting)** o **sobremuestreo (oversampling)** para equilibrar las contribuciones de los subgrupos subrepresentados, mitigando así el sesgo inherente a la disponibilidad de datos de origen geográfico o lingüístico. 2. Establecer un proceso de **evaluación algorítmica rigurosa** que incorpore **Métricas de Equidad (Fairness Metrics)** especializadas, como la **Paridad Demográfica (Demographic Parity)** y las **Probabilidades Ecualizadas (Equalized Odds)**. Este análisis debe cuantificar las variaciones en el rendimiento y la tasa de error a través de múltiples segmentos demográficos y atributos sensibles. 3. Implementar un ciclo de **gobernanza y monitoreo continuo post-despliegue**. Esto incluye la realización de **auditorías algorítmicas regulares** y la exigencia de **documentación transparente** sobre el alcance de las intervenciones de mitigación, asegurando la detección proactiva de cualquier rendimiento desigual emergente.

EVIDENCIA ADICIONAL

Un modelo entrenado con un conjunto de datos desproporcionadamente sesgado hacia un grupo demográfico en particular mostrará inevitablemente un rendimiento deficiente para otros. La disponibilidad de datos refleja sesgos profundos, tanto geográficos en la recolección como lingüísticos, dada la disparidad en la digitalización de contenido y la infraestructura que prioriza ciertas lenguas o acentos. Un ejemplo paradigmático de este sesgo proviene de internet: el 63.7% de la comunicación en línea es en inglés, a pesar de que solo el 5% de la población mundial lo habla en casa. Al alimentarse de esta fuente, los modelos generativos de última generación subestiman sistemáticamente las partes de la distribución de datos que están infrarrepresentadas. Esto tiene implicaciones directas en el rendimiento: los modelos de Reconocimiento Automático de Voz (RAV), por ejemplo, han demostrado disparidades raciales, obligando a ciertos usuarios a adaptar su forma de hablar para interactuar con estos sistemas. Más aún, incluso las intervenciones diseñadas para mitigar daños pueden introducir sesgos. La detección automatizada de discurso de odio, si es insensible a las diferencias dialectales, puede amplificar el daño a grupos minoritarios al silenciar sus voces o etiquetar incorrectamente su discurso como ofensivo. Por consiguiente, es imperativo documentar con precisión las intervenciones utilizadas, especificando claramente para qué poblaciones y normas están diseñadas y cuáles quedan fuera de su cobertura.