Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Discriminación por IA

La discriminación por IA es un desafío ético y técnico de gran calado, señalado por la comunidad investigadora y los organismos gubernamentales, que se refiere a la manifestación de sesgos e injusticias causadas por el propio accionar de los sistemas de inteligencia artificial (Bostrom & Yudkowsky, 2014; Weyerer & Langer, 2019). La problemática central reside en que si el conjunto de datos (dataset) empleado para el entrenamiento no es un reflejo exacto de la realidad, la IA corre el riesgo de asimilar asociaciones espurias o prejuicios implícitos, los cuales replicará en sus futuros análisis. De esta manera, si un algoritmo se usa para generar información relevante en decisiones humanas críticas (como procesos de selección de personal o solicitudes de crédito o hipoteca), los datos sesgados pueden derivar en una discriminación tangible contra determinados sectores sociales (Weyerer & Langer, 2019).

Fuente: MIT AI Risk Repositorymit297

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit297

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Garantizar la Representatividad y el Balance de Datos Implementar metodologías rigurosas para auditar y asegurar que los conjuntos de datos de entrenamiento sean inclusivos y representativos de la población de interés, aplicando técnicas de balanceo (e.g., sobremuestreo o submuestreo) para corregir desequilibrios demográficos que puedan asimilar y perpetuar sesgos sociales. 2. Promover la Explicabilidad y la Auditoría Algorítmica Adoptar marcos de Inteligencia Artificial Explicable (XAI) y Transparencia para desvelar el razonamiento del modelo y facilitar la realización de auditorías éticas continuas, que incluyan la evaluación del rendimiento y el impacto del sistema desagregado por grupos demográficos para identificar disparidades injustas o discriminatorias. 3. Establecer un Marco de Gobernanza Inclusivo y Supervisión Humana Reforzar las estructuras de gobernanza con políticas de "Fairness-by-Design," fomentando activamente la diversidad interdisciplinaria en los equipos de desarrollo para mitigar sesgos humanos. Asimismo, se debe integrar la supervisión humana ("human-in-the-loop") en decisiones críticas (e.g., procesos de selección o crédito) para revisar y validar las salidas del sistema ante la potencial manifestación de prejuicios algorítmicos.