Bias and discrimination
Al igual que sus contrapartes virtuales, los sistemas de Inteligencia Artificial Corporizada (IAC) pueden exhibir sesgos y discriminar a los usuarios. Cuando se sitúa a estos sistemas de IAC en posiciones de poder, sus prejuicios inherentes pueden generar un impacto considerable en la equidad de las interacciones cotidianas y alterar la dinámica social general.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1284
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
Estrategias de Mitigación del Sesgo y la Discriminación en Sistemas de IA1. **Asegurar la Equidad y Representatividad de los Datos y el Equipo de Desarrollo.** La prioridad inicial radica en abordar la fuente principal del riesgo: garantizar la diversidad, el balance y la representatividad de los conjuntos de datos utilizados para el entrenamiento, realizando una limpieza exhaustiva para corregir sesgos históricos. Asimismo, es fundamental fomentar la diversidad (racial, de género, disciplinaria) en los equipos de desarrollo y auditoría para mitigar la filtración de sesgos cognitivos humanos en el diseño del modelo. 2. **Implementar Auditorías y Pruebas de Equidad Continuas (Post-Despliegue).** Se requiere establecer un protocolo de monitoreo riguroso y sistemático para evaluar continuamente el desempeño del sistema *in vivo*. Estas auditorías deben utilizar métricas de imparcialidad específicas para detectar y corregir el impacto diferencial o la discriminación algorítmica hacia grupos minoritarios una vez que el sistema se encuentra en un entorno operativo. 3. **Adoptar Marcos de Gobernanza Formales y Mecanismos de Explicabilidad (XAI).** Es imprescindible instituir un marco formal de gobernanza de la IA, alineado con principios éticos y regulaciones, que establezca la responsabilidad y la supervisión. Paralelamente, se debe priorizar el uso de técnicas de IA explicable (XAI) para aumentar la transparencia de los modelos, permitiendo a los expertos desentrañar el razonamiento de las decisiones y, por ende, identificar y neutralizar sesgos ocultos en arquitecturas de "caja negra".