Riesgos Éticos de la IA
En el ámbito de los riesgos éticos de la inteligencia artificial, dos preocupaciones fundamentales se destacan. La primera se relaciona con la posibilidad de que los sistemas de IA carezcan de un fundamento ético legítimo al establecer normativas que impactan de manera crucial en la sociedad y las interacciones humanas (Wirtz & Müller, 2019). El segundo riesgo clave es la discriminación algorítmica, entendida como el trato injusto de ciertos grupos poblacionales por parte de la IA. Dado que los humanos programan estos sistemas, proporcionan las fuentes de datos y configuran los procesos de gestión de la información, los sesgos y prejuicios inherentes a las personas pueden ser incorporados y reproducidos sistemáticamente por los sistemas de inteligencia artificial (Weyerer & Langer, 2019, 2020)
ENTIDAD
3 - Otro
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit287
Linea de dominio
1. Discriminación y Toxicidad
1.0 > Discriminación y Toxicidad
Estrategia de mitigacion
1. Establecer un marco de gobernanza de la IA (AI Governance Framework) robusto y formalizado que defina los principios éticos fundamentales (como la equidad, la transparencia y la rendición de cuentas) y que se fundamente en estándares internacionales reconocidos, asegurando así una base ética legítima para el diseño, desarrollo y despliegue de los sistemas. 2. Implementar estrategias rigurosas de gestión y sanitización de datos (Data Sanitization), enfocadas en la creación de conjuntos de datos inclusivos, diversos y balanceados, a fin de mitigar la introducción y la amplificación de sesgos sociodemográficos en el entrenamiento de los modelos algorítmicos. 3. Exigir la adopción de la Inteligencia Artificial Explicable (Explainable AI - XAI) y establecer mecanismos de monitoreo y auditoría continuos que permitan comprender el razonamiento del modelo, evaluar el impacto diferencial en los grupos poblacionales y asegurar la rendición de cuentas y la supervisión humana (Human-in-the-Loop) en las decisiones automatizadas.