Volver al repositorio MIT
1. Discriminación y Toxicidad1 - Pre-despliegue

Sesgo

Los sistemas de inteligencia artificial de propósito general poseen la capacidad de exacerbar sesgos sociales y políticos preexistentes, lo que inevitablemente provoca daños concretos. Estos sistemas manifiestan sesgos de forma recurrente en relación con aspectos fundamentales de la identidad humana, como la raza, el género, la cultura, la edad, la discapacidad o la opinión política. La consecuencia directa es la generación de resultados discriminatorios, que se materializan en una distribución no equitativa de recursos, la consolidación de estereotipos perjudiciales y la marginación sistemática de determinados grupos o puntos de vista.

Fuente: MIT AI Risk Repositorymit904

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit904

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Garantizar la diversidad y representatividad de los datos de entrenamiento. Implementar un análisis exhaustivo de los conjuntos de datos para asegurar su inclusión y representatividad de todos los grupos demográficos relevantes. Esto incluye el uso de técnicas de balanceo (p. ej., sobremuestreo o submuestreo) para corregir desequilibrios históricos, mitigando que el modelo aprenda y amplifique patrones discriminatorios desde su origen. 2. Implementar un marco de transparencia y explicabilidad (XAI) con auditorías éticas continuas. Promover la interpretabilidad de los modelos mediante el uso de herramientas de IA Explicable (XAI) para desentrañar la lógica de decisión, lo cual es fundamental para detectar sesgos ocultos. Complementariamente, realizar auditorías periódicas que evalúen el impacto diferencial de las decisiones del algoritmo en los diversos grupos afectados, asegurando el cumplimiento de métricas de equidad. 3. Establecer un marco de gobernanza sólido y fomentar la diversidad en los equipos de desarrollo. Diseñar un marco formal de gobernanza de la IA que defina claramente la rendición de cuentas, la supervisión humana para decisiones críticas, y la adhesión a directrices éticas y regulaciones (como la Ley de IA de la UE). Además, asegurar la diversidad en los equipos de desarrollo para evitar la introducción de sesgos cognitivos inconscientes durante las fases de conceptualización, diseño y etiquetado de datos.