Responsabilidad
La rendición de cuentas es un pilar fundamental en la toma de decisiones, aplicable tanto a los seres humanos como a los sistemas de Inteligencia Artificial (IA) e incluso a los agentes basados en Interacción Humano-Lógica (HLI). No obstante, replicar esta cualidad en el ámbito de las máquinas es una tarea de considerable complejidad. Para estructurar un modelo de IA que sea genuinamente responsable, es imperativo abordar un vasto espectro de desafíos. Cabe destacar que el propio proceso decisorio humano dista de ser ideal, pues está intrínsecamente matizado por variables como el sesgo, la diversidad, la equidad, la paradoja y la ambigüedad. Además, la decisión humana se asienta sobre cimientos de flexibilidad personal, sensibilidad contextual, empatía y juicios morales intrincados. Consecuentemente, todos estos retos se transfieren y se vuelven inherentes al diseño algorítmico de los modelos de IA y HLI que aspiran a la rendición de cuentas.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit569
Linea de dominio
7. Seguridad, Fallos y Limitaciones del Sistema de IA
7.4 > Falta de transparencia o interpretabilidad
Estrategia de mitigacion
1. Implementación de Marcos de Gobernanza de IA Establecer e institucionalizar un Marco Formal de Gestión de Riesgos de la IA (como el NIST AI RMF o equivalentes) que fomente una cultura organizacional de rendición de cuentas, defina los roles de responsabilidad y estructure sistemáticamente la identificación, medición, gestión y mitigación de los riesgos algorítmicos. 2. Garantía de Transparencia y Explicabilidad Algorítmica Desarrollar y desplegar sistemas de IA con la capacidad de proporcionar explicaciones comprensibles y trazables de sus resultados y decisiones (Explicabilidad), junto con la divulgación proactiva y documentada de su propósito, funcionamiento, datos de entrenamiento y posibles sesgos (Transparencia), para facilitar la supervisión y la impugnación. 3. Auditoría Algorítmica Continua y Mitigación de Sesgos Realizar auditorías algorítmicas periódicas y rigurosas a lo largo del ciclo de vida del sistema de IA, utilizando métricas de equidad y pruebas de sesgo (Fairness Testing) en subgrupos poblacionales relevantes, con el fin de identificar, preprocesar y corregir activamente los sesgos que podrían comprometer la justicia y la responsabilidad de las decisiones automatizadas.