Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Sistemas de Energía Nuclear

El despliegue de una Inteligencia Artificial de propósito general en funciones nucleares críticas—como la monitorización de reactores, la optimización de sistemas de control o la coordinación de respuestas de emergencia—introduce un riesgo sistémico. Un error de razonamiento, incluso mínimo, en la toma de decisiones por parte de esta IA podría llevar a una interpretación errónea de los datos sensoriales o a la incapacidad de identificar una condición crítica de seguridad. Dada la magnitud de las instalaciones nucleares, tales fallos algorítmicos en funciones de seguridad esenciales podrían desencadenar consecuencias catastróficas: desde la fusión del núcleo del reactor y la liberación de radiación, hasta la contaminación masiva que afectaría a cientos de miles de personas y traspasaría fronteras internacionales.

Fuente: MIT AI Risk Repositorymit1306

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1306

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Mantener el Control Humano Significativo y la Capacidad de Anulación (Meaningful Human Control)Se debe implementar un marco de gobernanza que asegure que el factor humano conserve la autoridad y la capacidad de anular o intervenir en las decisiones del sistema de IA, especialmente en escenarios de emergencia. Esto exige que los operadores estén capacitados para contrastar de manera oportuna y efectiva los resultados de la IA con fuentes de datos independientes y fiables, mitigando el riesgo de confianza excesiva (*over-trust*) o de errores de razonamiento algorítmico en funciones de seguridad críticas.2. Aplicar el Principio de Defensa en Profundidad y Redundancia AlgorítmicaEs imperativo integrar el sistema de IA bajo el principio de "defensa en profundidad" (*defence in depth*). Esto implica el despliegue de múltiples algoritmos predictivos, idealmente entrenados con datos diversos, para proporcionar análisis competitivos y mitigar el riesgo de que un único punto de fallo o un sesgo de datos conduzca a una conclusión errónea. Además, se deben garantizar mecanismos de respaldo no asistidos por IA que permitan que los sistemas de seguridad crítica funcionen eficazmente en caso de indisponibilidad o fallo total del componente de inteligencia artificial.3. Establecer un Marco Regulatorio Específico y Riguroso de VerificaciónSe requiere el desarrollo y la aplicación de estándares de seguridad y protocolos de "evaluación de riesgos probabilística" (*Probabilistic Risk Assessments - PRA*) adaptados a las características únicas de los sistemas de IA en el entorno nuclear. Estos protocolos deben incluir la realización obligatoria y continua de ejercicios de simulación y *red-teaming* que sometan a los modelos a escenarios de crisis complejos y no experimentados, garantizando su robustez y fiabilidad antes y durante el despliegue operacional.