Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Daños a no humanos

El riesgo de daños a gran escala para la vida animal, y la problemática que plantea el desarrollo de inteligencias artificiales capaces de experimentar sintiencia o sufrimiento.

Fuente: MIT AI Risk Repositorymit918

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit918

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.5 > Bienestar y derechos de la IA

Estrategia de mitigacion

1. Integrar la Evaluación de Riesgos Ecosistémicos y de Bienestar Animal en la Fase de Diseño. Establecer formalmente marcos de evaluación de impacto que identifiquen, valoren y mitiguen proactivamente los riesgos de daño a la vida no humana y al medio ambiente en el ciclo de vida completo del sistema de IA, asegurando un enfoque de "Seguridad por Diseño" (Safety-by-Design). 2. Implementar Mecanismos de Control de Emergencia y Supervisión Humana Continua. Incorporar funcionalidades de seguridad, como mecanismos de "fail-safe" (a prueba de fallos), que permitan la intervención humana inmediata, la pausa o la desactivación total del sistema de IA en caso de detectar comportamientos no deseados o que resulten perjudiciales para los animales o el ecosistema. 3. Adoptar un Principio de Cautela Ética en el Desarrollo de Sistemas con Potencial de Sentiencia Artificial. Priorizar la investigación rigurosa sobre los requisitos, la detección y la prevención del sufrimiento en sistemas de IA avanzados, aplicando el principio de precaución ante la incertidumbre sobre la posibilidad de que una inteligencia artificial desarrolle sintiencia o capacidad de experimentar dolor.