Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Daño causado por sistemas incompetentes

Mientras que el Desafío Prioritario (DP) #1 se enfoca en el rendimiento promedio o en el escenario ideal, el DP #2 se centra rigurosamente en el rendimiento en el peor de los casos. La pregunta central es la verificación: ¿cómo podemos asegurar que los sistemas de inteligencia artificial operen de manera segura y, fundamentalmente, cómo podemos probar esa seguridad? La implementación de sistemas de *Machine Learning* (ML) en dominios de alto riesgo —como la conducción, la medicina o incluso la defensa— es una realidad. Los riesgos son claros: sistemas inseguros pueden causar desde la pérdida de vidas hasta severos daños económicos y desestabilización social. La mayor preocupación radica en su susceptibilidad a los llamados "accidentes normales", que desencadenan errores en cascada notoriamente difíciles de mitigar simplemente manteniendo un control nominal a través de un "humano en el bucle" (*human in the loop*). De hecho, la fiabilidad de los modelos ML más avanzados está significativamente por debajo de los estándares habituales en disciplinas de ingeniería. Puesto que aún no comprendemos a cabalidad el mecanismo subyacente por el cual los sistemas de vanguardia alcanzan sus resultados, permanecemos incapacitados para detectar y, por consiguiente, prevenir sus modos operativos peligrosos.

Fuente: MIT AI Risk Repositorymit770

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit770

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Implementar la verificación rigurosa de robustez: Realizar pruebas exhaustivas de rendimiento en el peor de los casos (worst-case performance), incorporando sistemáticamente el stress testing y ejercicios de AI red teaming (pruebas adversariales) para identificar edge cases y vulnerabilidades ocultas antes del despliegue. 2. Adoptar principios de arquitectura a prueba de fallos: Diseñar el sistema con acoplamiento laxo (loose coupling) entre sus componentes para evitar errores en cascada (fenómeno de "accidentes normales") y establecer protocolos de contención y mecanismos fail-safe que garanticen que cualquier fallo ocurra de la manera menos perjudicial. 3. Establecer monitoreo continuo post-despliegue: Implementar analíticas de comportamiento en tiempo real que rastreen consistentemente la calidad de los datos, el rendimiento del modelo y la postura de seguridad, permitiendo una identificación proactiva de la degradación (data drift) y asegurando el cumplimiento de los umbrales de confiabilidad.