Sesgo
Los sistemas de inteligencia artificial de propósito general poseen la capacidad de exacerbar sesgos sociales y políticos preexistentes, lo que inevitablemente provoca daños concretos. Estos sistemas manifiestan sesgos de forma recurrente en relación con aspectos fundamentales de la identidad humana, como la raza, el género, la cultura, la edad, la discapacidad o la opinión política. La consecuencia directa es la generación de resultados discriminatorios, que se materializan en una distribución no equitativa de recursos, la consolidación de estereotipos perjudiciales y la marginación sistemática de determinados grupos o puntos de vista.
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit904
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Garantizar la diversidad y representatividad de los datos de entrenamiento. Implementar un análisis exhaustivo de los conjuntos de datos para asegurar su inclusión y representatividad de todos los grupos demográficos relevantes. Esto incluye el uso de técnicas de balanceo (p. ej., sobremuestreo o submuestreo) para corregir desequilibrios históricos, mitigando que el modelo aprenda y amplifique patrones discriminatorios desde su origen. 2. Implementar un marco de transparencia y explicabilidad (XAI) con auditorías éticas continuas. Promover la interpretabilidad de los modelos mediante el uso de herramientas de IA Explicable (XAI) para desentrañar la lógica de decisión, lo cual es fundamental para detectar sesgos ocultos. Complementariamente, realizar auditorías periódicas que evalúen el impacto diferencial de las decisiones del algoritmo en los diversos grupos afectados, asegurando el cumplimiento de métricas de equidad. 3. Establecer un marco de gobernanza sólido y fomentar la diversidad en los equipos de desarrollo. Diseñar un marco formal de gobernanza de la IA que defina claramente la rendición de cuentas, la supervisión humana para decisiones críticas, y la adhesión a directrices éticas y regulaciones (como la Ley de IA de la UE). Además, asegurar la diversidad en los equipos de desarrollo para evitar la introducción de sesgos cognitivos inconscientes durante las fases de conceptualización, diseño y etiquetado de datos.