Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Bias and discrimination

Al igual que sus contrapartes virtuales, los sistemas de Inteligencia Artificial Corporizada (IAC) pueden exhibir sesgos y discriminar a los usuarios. Cuando se sitúa a estos sistemas de IAC en posiciones de poder, sus prejuicios inherentes pueden generar un impacto considerable en la equidad de las interacciones cotidianas y alterar la dinámica social general.

Fuente: MIT AI Risk Repositorymit1284

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1284

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

Estrategias de Mitigación del Sesgo y la Discriminación en Sistemas de IA1. **Asegurar la Equidad y Representatividad de los Datos y el Equipo de Desarrollo.** La prioridad inicial radica en abordar la fuente principal del riesgo: garantizar la diversidad, el balance y la representatividad de los conjuntos de datos utilizados para el entrenamiento, realizando una limpieza exhaustiva para corregir sesgos históricos. Asimismo, es fundamental fomentar la diversidad (racial, de género, disciplinaria) en los equipos de desarrollo y auditoría para mitigar la filtración de sesgos cognitivos humanos en el diseño del modelo. 2. **Implementar Auditorías y Pruebas de Equidad Continuas (Post-Despliegue).** Se requiere establecer un protocolo de monitoreo riguroso y sistemático para evaluar continuamente el desempeño del sistema *in vivo*. Estas auditorías deben utilizar métricas de imparcialidad específicas para detectar y corregir el impacto diferencial o la discriminación algorítmica hacia grupos minoritarios una vez que el sistema se encuentra en un entorno operativo. 3. **Adoptar Marcos de Gobernanza Formales y Mecanismos de Explicabilidad (XAI).** Es imprescindible instituir un marco formal de gobernanza de la IA, alineado con principios éticos y regulaciones, que establezca la responsabilidad y la supervisión. Paralelamente, se debe priorizar el uso de técnicas de IA explicable (XAI) para aumentar la transparencia de los modelos, permitiendo a los expertos desentrañar el razonamiento de las decisiones y, por ende, identificar y neutralizar sesgos ocultos en arquitecturas de "caja negra".