Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Aumento de trabajo

Carga Desproporcionada de Adaptación: Se define como el incremento en el esfuerzo (p. ej., tiempo) o la carga que deben asumir miembros de ciertos grupos sociales para lograr que un sistema o producto funcione para ellos con la misma eficacia y calidad que para el resto.

Fuente: MIT AI Risk Repositorymit145

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit145

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.3 > Rendimiento desigual entre grupos

Estrategia de mitigacion

1. Intervención en el Origen del Sesgo: Implementar un proceso de auditoría y curación de los conjuntos de datos de entrenamiento para garantizar una representación robusta y equitativa de la diversidad lingüística, fonética y dialectal. Esto es crucial para mitigar el sesgo muestral y de medición que penaliza las variaciones del habla no estándar y que conduce a la carga desproporcionada de adaptación. 2. Evaluación y Monitoreo Desagregado: Establecer métricas de rendimiento diferenciadas que evalúen la precisión del reconocimiento automático de voz (ASR) a través de distintos grupos sociolingüísticos. Esto incluye el análisis de la Tasa de Falsos Positivos o Falsos Negativos y la Diferencia de Precisión para identificar y cuantificar sistemáticamente el rendimiento desigual. 3. Aplicación de Técnicas de Mitigación Algorítmica: Integrar la optimización de los criterios de equidad (fairness metrics) dentro de la función de pérdida del modelo durante el entrenamiento, buscando que el algoritmo se ajuste activamente para lograr la igualdad de rendimiento entre las categorías de interés. Alternativamente, desarrollar un mecanismo de codificación del habla intrínsecamente independiente de las características individuales del locutor.

EVIDENCIA ADICIONAL

A menudo, la limitación sistémica en el reconocimiento automático de voz obliga al usuario a modificar sus patrones de habla para asegurar una respuesta clara y concisa. Esto sugiere que el entrenamiento del modelo aún no alcanza una robustez generalizada, dejando entrever un sesgo inherente que penaliza las variaciones lingüísticas o dialectales que se desvían de un "estándar" programado.