Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Riesgos Éticos de la IA

En el ámbito de los riesgos éticos de la inteligencia artificial, dos preocupaciones fundamentales se destacan. La primera se relaciona con la posibilidad de que los sistemas de IA carezcan de un fundamento ético legítimo al establecer normativas que impactan de manera crucial en la sociedad y las interacciones humanas (Wirtz & Müller, 2019). El segundo riesgo clave es la discriminación algorítmica, entendida como el trato injusto de ciertos grupos poblacionales por parte de la IA. Dado que los humanos programan estos sistemas, proporcionan las fuentes de datos y configuran los procesos de gestión de la información, los sesgos y prejuicios inherentes a las personas pueden ser incorporados y reproducidos sistemáticamente por los sistemas de inteligencia artificial (Weyerer & Langer, 2019, 2020)

Fuente: MIT AI Risk Repositorymit287

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit287

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.0 > Discriminación y Toxicidad

Estrategia de mitigacion

1. Establecer un marco de gobernanza de la IA (AI Governance Framework) robusto y formalizado que defina los principios éticos fundamentales (como la equidad, la transparencia y la rendición de cuentas) y que se fundamente en estándares internacionales reconocidos, asegurando así una base ética legítima para el diseño, desarrollo y despliegue de los sistemas. 2. Implementar estrategias rigurosas de gestión y sanitización de datos (Data Sanitization), enfocadas en la creación de conjuntos de datos inclusivos, diversos y balanceados, a fin de mitigar la introducción y la amplificación de sesgos sociodemográficos en el entrenamiento de los modelos algorítmicos. 3. Exigir la adopción de la Inteligencia Artificial Explicable (Explainable AI - XAI) y establecer mecanismos de monitoreo y auditoría continuos que permitan comprender el razonamiento del modelo, evaluar el impacto diferencial en los grupos poblacionales y asegurar la rendición de cuentas y la supervisión humana (Human-in-the-Loop) en las decisiones automatizadas.