Tipo 1: Difusión de responsabilidad
Los perjuicios a escala social pueden emerger de la inteligencia artificial desarrollada por una colectividad de creadores dispersos. Este escenario replica la clásica tragedia de los bienes comunes, dado que la responsabilidad por la creación o el uso de la tecnología queda difuminada, impidiendo que un único actor sea considerado responsable de los riesgos sistémicos.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
3 - Otro
ID del riesgo
mit01
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Establecer marcos de gobernanza de IA sólidos y explícitos que asignen la responsabilidad moral y legal inequívoca a entidades humanas u organizacionales específicas a lo largo del ciclo de vida del sistema (desarrollo, despliegue y monitoreo), contrarrestando así el riesgo de la "tragedia de los bienes comunes" sistémica. 2. Implementar y exigir un alto grado de transparencia y explicabilidad (XAI) en los sistemas de IA para dilucidar los procesos de toma de decisiones. Esto evita escenarios de "caja negra" y facilita la fiscalización, impugnación y atribución de responsabilidad por resultados adversos por parte de los afectados. 3. Requerir la supervisión humana obligatoria y puntos de validación explícitos para las decisiones críticas impulsadas por la IA. Esto asegura que un agente humano competente retenga la responsabilidad última por el resultado final, reforzando la rendición de cuentas individual y previniendo que el sistema sea el único foco de culpa.