Desigualdad, Marginación y Violencia
Los sistemas de inteligencia artificial generativa poseen el potencial de intensificar las desigualdades sociales ya existentes. Este riesgo se manifiesta a través de fenómenos como el sesgo algorítmico, la perpetuación de estereotipos y el rendimiento dispar en función de valores culturales o contextos sensibles. Por lo tanto, el despliegue o la actualización de estos sistemas puede utilizarse, de manera directa o indirecta, para perjudicar y explotar a las poblaciones más vulnerables y marginadas.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit175
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Implementación de Marcos Rigurosos de Gobernanza y Calidad de Datos Requerir la adopción de protocolos de Gobernanza de IA que exijan la validación, limpieza y Diversificación exhaustiva de los conjuntos de datos de entrenamiento, garantizando la representación equitativa de todas las comunidades para prevenir la incrustación de sesgos algorítmicos y estereotipos desde la fase de diseño. 2. Establecimiento de Auditorías Algorítmicas y Evaluaciones de Impacto Continuas Instituir la obligatoriedad de la Evaluación del Impacto de la IA (EIA) o la Evaluación de Impacto Social (EIS) como procesos continuos post-despliegue. Estas auditorías deben ser realizadas por entes independientes, enfocándose en la detección de rendimiento dispar en poblaciones vulnerables y en la Explicabilidad (XAI) de las decisiones para asegurar la rendición de cuentas. 3. Desarrollo de Capacidades Inclusivas y Armonización Regulatoria Promover la inversión en infraestructura, habilidades y capacidad de cómputo en regiones menos desarrolladas. Esto debe ser complementado con la colaboración internacional para la creación de marcos regulatorios globales, inclusivos y adaptables que promuevan la distribución equitativa de los beneficios de la IA y mitiguen la amplificación de las brechas de desigualdad entre países.