Cuestiones de responsabilidad en caso de accidentes
A pesar de la promesa de una movilidad optimizada, la IA en el transporte genera serias preocupaciones sobre la determinación de la responsabilidad legal en caso de accidentes. Esto nos obliga a debatir qué principios éticos deben regir a los agentes autónomos al tomar decisiones que podrían tener un impacto peligroso para los seres humanos, por ejemplo, en situaciones de siniestro vial.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit588
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Implementar un marco regulatorio de responsabilidad legal exhaustivo que defina claramente la atribución de culpa según el nivel de automatización del vehículo (SAE Levels 0-5). Para los niveles de autonomía alta (L4-L5), la responsabilidad debe recaer predominantemente en el fabricante, el operador o el desarrollador del software, mediante la adopción de un estándar de responsabilidad estricta o la figura legal del "Conductor Informático" (Computer Driver), a fin de mitigar la asimetría de información entre la víctima y la entidad responsable. 2. Exigir la estandarización y preservación obligatoria de los datos del vehículo, como los registros de eventos (EDR), los *logs* de sensores y el historial de actualizaciones de software. Esta evidencia digital es crucial para garantizar una investigación forense técnica rigurosa que permita establecer la causalidad precisa entre el comportamiento del sistema autónomo y la ocurrencia del siniestro. 3. Establecer protocolos claros y legalmente reconocidos para la transferencia de control entre el sistema autónomo y el conductor humano, incluyendo un "período de gracia" mínimo y definido legalmente para la reacción del conductor en situaciones de emergencia. Esto es fundamental para resolver disputas sobre la negligencia contributiva o comparativa en los niveles de automatización condicional (L2-L3) y evitar la "complacencia de la automatización".