Atribución compleja y responsabilidad
La intervención de múltiples agentes a lo largo del ciclo de vida del desarrollo y despliegue de la inteligencia artificial provoca una dilución de la responsabilidad, lo cual dificulta notablemente la asignación de culpas ante un perjuicio y compromete la eficacia de los mecanismos de rendición de cuentas.
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit937
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Establecer un marco de gobernanza explícito que defina roles y responsabilidades a lo largo de todo el ciclo de vida de la IA, desde la concepción hasta el despliegue y uso. Esto debe materializarse mediante una matriz de rendición de cuentas (accountability matrix) que identifique inequívocamente a los agentes responsables (desarrolladores, operadores, proveedores de datos, etc.) en caso de perjuicio, mitigando la dilución de la responsabilidad. 2. Implementar sistemáticamente metodologías de Inteligencia Artificial Explicable (XAI) y sistemas de auditoría robustos. Esto permite trazar las decisiones del modelo, identificar los factores causales (difference-makers) del daño y facilitar la interpretación de resultados, lo cual es fundamental para la atribución legal y ética de responsabilidad. 3. Desarrollar y adoptar marcos éticos y legales progresivos que aborden la "difusión de la responsabilidad" inherente a los sistemas de IA autónomos y distribuidos. Esto incluye la consideración de la responsabilidad como "capacidad de respuesta" (answerability) ante los afectados y la aplicación de principios de proporcionalidad en la atribución de culpas compartidas entre humanos y sistemas de IA.