Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Jurisprudencia de la IA

Al examinar los marcos regulatorios, observamos que, hasta la fecha, la literatura especializada no ha identificado un esquema legal capaz de asignar directamente culpa y responsabilidad a un agente autónomo por los actos que este comete. Sin embargo, este es un campo en evolución. La reciente legislación en torno a los vehículos autónomos, por ejemplo, podría servir como un modelo preliminar que merece ser evaluado a futuro en términos de su eficacia y de las lagunas que presenta. Por el momento, la discusión legal se apoya en gran medida en las leyes de responsabilidad y negligencia ya establecidas, las cuales suelen aplicar la imputación de la acción al fabricante o al operador del dispositivo.

Fuente: MIT AI Risk Repositorymit120

ENTIDAD

1 - Humano

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit120

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.5 > Fallo de gobernanza

Estrategia de mitigacion

1. Diseñar e implementar un marco regulatorio exhaustivo y basado en el riesgo (siguiendo modelos como la Ley de IA de la UE) que defina explícitamente los criterios para la imputación de responsabilidad y culpa a lo largo del ciclo de vida de los sistemas de IA. 2. Adoptar un modelo de atribución de responsabilidad basado en el nivel de autonomía y la capacidad de decisión del agente de IA, trasladando la carga de responsabilidad del usuario o el operador hacia el fabricante o desarrollador a medida que aumenta la capacidad de acción independiente del sistema. 3. Establecer mecanismos de compensación complementarios, como fondos de responsabilidad colectiva o seguros especializados, para garantizar la reparación de los daños a las víctimas en aquellos casos donde la identificación del responsable directo del agente autónomo sea legal o técnicamente indeterminable.