Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Ethical Risks (Risks of exacerbating social discrimination and prejudice, and widening the intelligence divide)

La Inteligencia Artificial posee la capacidad de recopilar y analizar de manera exhaustiva el comportamiento humano, el estatus socioeconómico y las características individuales de la personalidad. Este proceso puede conducir a la clasificación y etiquetado de grupos poblacionales, facilitando la aplicación de un trato sesgado. La consecuencia directa es la consolidación de prejuicios y una discriminación social con implicaciones sistemáticas y estructurales. A su vez, este fenómeno contribuye a exacerbar la 'brecha de inteligencia' o brecha digital de capacidades entre las distintas regiones

Fuente: MIT AI Risk Repositorymit665

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit665

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.2 > Aumento de la desigualdad y disminución de la calidad del empleo

Estrategia de mitigacion

1. Implementar un Marco de Gobernanza de IA Ética y Responsable Establecer formalmente un marco de gestión de riesgos de Inteligencia Artificial (IA) que integre los principios de equidad, no discriminación y transparencia desde la fase de diseño. Este marco debe incluir la obligatoriedad de realizar Evaluaciones de Impacto Algorítmico (AIA) y definir mecanismos claros de rendición de cuentas, garantizando la existencia de supervisión humana (*Human-in-the-Loop*) para validar y, si es necesario, anular decisiones algorítmicas con potencial de causar perjuicios sistemáticos. 2. Garantizar la Equidad y Representatividad de los Datos de Entrenamiento Realizar auditorías exhaustivas y continuas de los conjuntos de datos (*datasets*) para identificar, cuantificar y mitigar sesgos inherentes (ej. sesgo de selección o prejuicio histórico). Es imprescindible el empleo de estrategias como la recolección de datos que reflejen la diversidad socioeconómica y demográfica de la población, el uso de técnicas de preprocesamiento (ej. reponderación, sobremuestreo o anonimización estricta) y la aplicación de métodos de debiasing para prevenir la amplificación de desigualdades preexistentes. 3. Establecer un Sistema de Monitoreo Continuo y Transparencia Explicativa Implementar un sistema de monitoreo post-despliegue capaz de detectar la deriva del modelo y la aparición de sesgos o resultados discriminatorios en tiempo real. Esto debe complementarse con la adopción de técnicas de IA Explicable (XAI) para proveer justificaciones comprensibles de las decisiones algorítmicas, permitiendo a los afectados solicitar explicaciones y a los equipos de desarrollo realizar ajustes correctivos oportunos, asegurando la trazabilidad y la auditabilidad constante del sistema.