Falta de rendición de cuentas y responsabilidad
La proliferación de sistemas físicos altamente autónomos, impulsados por la Inteligencia Artificial Experta (EAI), plantea un desafío fundamental a la jurisprudencia: la determinación de la **responsabilidad** legal ante un daño. Esto exige urgentemente la articulación de nuevos **marcos de rendición de cuentas y responsabilidad civil** capaces de gestionar la complejidad inherente a la alta autonomía. La problemática se intensifica cuando los usuarios humanos, a pesar de la pericia del sistema EAI, discrepan de sus decisiones, lo que suscita profundas interrogantes sobre la **delegación de autoridad** y los límites de la **responsabilidad** humana. En última instancia, la falta de claridad en la rendición de cuentas del EAI no solo podría generar desorientación en los usuarios, sino también provocar un colapso en la capacidad de los **sistemas de justicia tradicionales** para asignar culpas de manera coherente y efectiva.
ENTIDAD
3 - Otro
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit1285
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Establecer un marco de gobernanza y responsabilidad civil (accountability) basado en riesgos, articulando de forma inequívoca las obligaciones y la asignación de responsabilidades legales a lo largo de todo el ciclo de vida del sistema de Inteligencia Artificial (IA), involucrando a desarrolladores, integradores y operadores. Este marco debe prever mecanismos de reparación y recurso legal efectivos para los daños causados por sistemas autónomos. 2. Implementar rigurosos procesos de trazabilidad y auditabilidad que incluyan la documentación sistemática de las evaluaciones de riesgos e impacto (AIIA), el registro de decisiones operacionales y el monitoreo continuo, con el fin de garantizar la transparencia necesaria para la determinación *ex-post* de la causalidad y la atribución de responsabilidad. 3. Exigir la integración de la interpretabilidad y la explicabilidad (explainability) en el diseño de los sistemas de IA, mediante la aplicación de metodologías de verificación y validación (V\&V) que demuestren la robustez del sistema y faciliten la comprensión humana de las decisiones autónomas, mitigando así los riesgos inherentes a la delegación de autoridad.