Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Desigualdad

En un plano más general, las decisiones erróneas o los sesgos inherentes a las herramientas de inteligencia artificial tienen el potencial de exacerbar la discriminación social o de cimentar disparidades ya existentes

Fuente: MIT AI Risk Repositorymit799

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit799

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.2 > Aumento de la desigualdad y disminución de la calidad del empleo

Estrategia de mitigacion

1. Implementar un riguroso proceso de *debiasing* que garantice la diversidad y representatividad de los conjuntos de datos de entrenamiento, utilizando técnicas de balanceo y *algoritmos conscientes de la equidad* (*fairness-aware algorithms*) para prevenir la amplificación de sesgos históricos en los resultados. 2. Establecer un marco de *gobernanza formal* y *transparencia* del modelo mediante la aplicación de técnicas de *Inteligencia Artificial Explicable (XAI)*, facilitando la auditabilidad continua y la trazabilidad de las decisiones para identificar y corregir proactivamente los patrones discriminatorios. 3. Fomentar la diversidad en los equipos de desarrollo de IA y llevar a cabo *auditorías éticas continuas* post-despliegue, evaluando el impacto diferencial de las decisiones del sistema en los distintos grupos demográficos para asegurar que la equidad se mantenga en entornos operativos y dinámicos.