Volver al repositorio MIT
6. Socioeconómico y Ambiental3 - Otro

Atribución compleja y responsabilidad

La intervención de múltiples agentes a lo largo del ciclo de vida del desarrollo y despliegue de la inteligencia artificial provoca una dilución de la responsabilidad, lo cual dificulta notablemente la asignación de culpas ante un perjuicio y compromete la eficacia de los mecanismos de rendición de cuentas.

Fuente: MIT AI Risk Repositorymit937

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit937

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.5 > Fallo de gobernanza

Estrategia de mitigacion

1. Establecer un marco de gobernanza explícito que defina roles y responsabilidades a lo largo de todo el ciclo de vida de la IA, desde la concepción hasta el despliegue y uso. Esto debe materializarse mediante una matriz de rendición de cuentas (accountability matrix) que identifique inequívocamente a los agentes responsables (desarrolladores, operadores, proveedores de datos, etc.) en caso de perjuicio, mitigando la dilución de la responsabilidad. 2. Implementar sistemáticamente metodologías de Inteligencia Artificial Explicable (XAI) y sistemas de auditoría robustos. Esto permite trazar las decisiones del modelo, identificar los factores causales (difference-makers) del daño y facilitar la interpretación de resultados, lo cual es fundamental para la atribución legal y ética de responsabilidad. 3. Desarrollar y adoptar marcos éticos y legales progresivos que aborden la "difusión de la responsabilidad" inherente a los sistemas de IA autónomos y distribuidos. Esto incluye la consideración de la responsabilidad como "capacidad de respuesta" (answerability) ante los afectados y la aplicación de principios de proporcionalidad en la atribución de culpas compartidas entre humanos y sistemas de IA.