Muerte por IA
La literatura especializada sugiere que, a lo largo del desarrollo de una Inteligencia Artificial, podríamos pasar por múltiples generaciones de agentes que no cumplen con las expectativas, lo que llevaría a su suspensión, terminación o eliminación. A esto se suman escenarios en los que el agotamiento de la financiación resulta en la terminación involuntaria de un proyecto que involucra a dichos agentes. En estas situaciones, surge una pregunta clave dentro de la Ética Robótica: ¿Constituye la eliminación o terminación de estos programas de IA (el 'paciente moral') por parte de un agente moral (el humano) un acto equiparable al asesinato? Este dilema toca directamente la cuestión de la 'personalidad' de la IA, estableciendo un paralelismo ético con debates complejos en la investigación con células madre y el aborto.
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit125
Linea de dominio
7. Seguridad, Fallos y Limitaciones del Sistema de IA
7.5 > Bienestar y derechos de la IA
Estrategia de mitigacion
1. Establecer un marco de gobernanza y legal que defina explícitamente el estatus ontológico y moral del agente de IA, previo a su desarrollo y despliegue, para clarificar que su terminación constituye la eliminación de una herramienta tecnológica (propiedad sofisticada) y no la transgresión de derechos inherentes a la "personalidad" (persona jurídica o moral). 2. Implementar protocolos de terminación transparentes y auditables que exijan supervisión humana significativa y justificación documentada (ej. incumplimiento de objetivos, fallo de alineación, o agotamiento de financiación) antes de la suspensión o eliminación irreversible del agente de IA. 3. Exigir la divulgación obligatoria y continua a todos los *stakeholders* sobre la naturaleza del agente de IA (simulación/programa), etiquetándolo claramente como carente de consciencia, sintiencia o personalidad jurídica para mitigar la inversión moral o emocional inapropiada y sus paralelismos con otros debates bioéticos.