Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Riesgos Radiológicos

Los riesgos radiológicos en el contexto de la inteligencia artificial se dividen esencialmente en dos dimensiones principales. La primera concierne a los peligros operacionales inmediatos: aquellos fallos directos que pueden ocurrir, por ejemplo, incidentes de exposición o fallas en los sistemas de contención durante el manejo automatizado de materiales radiactivos. La segunda dimensión aborda riesgos de seguridad más amplios y estratégicos: la preocupación por el posible uso indebido o la aplicación malintencionada de los sistemas de IA en el ámbito de la investigación o tecnología nuclear

Fuente: MIT AI Risk Repositorymit1291

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1291

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. **Implementación de Marcos de Gobernanza y Seguridad Rigurosos** Clasificar los sistemas de IA aplicados en investigación nuclear, manipulación automatizada y control de materiales radiactivos como de "Alto Riesgo". Esto exige el cumplimiento de un marco regulatorio estricto que incluya la evaluación de conformidad previa al despliegue, mecanismos obligatorios de "humano en el circuito" (Human-in-the-Loop) y la clara asignación de responsabilidad legal (accountability) para la prevención del uso indebido o malintencionado de la tecnología. 2. **Diseño de Modelos con Resiliencia Adversaria y Optimización de Dosis** Garantizar la robustez técnica de los algoritmos mediante la integración de defensas contra ataques adversarios y la inyección de *prompts* que puedan comprometer la integridad de los sistemas de contención o control. Paralelamente, se debe priorizar la aplicación de IA para la optimización en tiempo real de los parámetros operativos, como la reducción de la dosis de radiación y la automatización segura de tareas, minimizando la exposición del personal. 3. **Capacitación Especializada y Gestión del Sesgo de Automatización** Desarrollar programas de formación exhaustivos para los profesionales que interactúan con los sistemas de IA, enfatizando tanto las capacidades como las limitaciones de la tecnología. Es fundamental mitigar el riesgo de "sesgo de automatización" (automation bias), asegurando que el juicio y la supervisión humana permanezcan como el punto de decisión final para validar las recomendaciones de la IA, especialmente ante escenarios clínicos o de seguridad atípicos o de alto impacto.