Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Despliegue de agentes GPAI en finanzas

La introducción de agentes basados en Inteligencia Artificial de Propósito General (IAPG) en el sector financiero representa un riesgo latente para la estabilidad del mercado. Este impacto negativo podría materializarse por la ejecución de acciones autónomas y correlacionadas a gran escala, por la alta interconexión que amplifica las reacciones en cadena, o por un desajuste fundamental en la alineación de objetivos de estos sistemas. Además, al operar como un ecosistema multi-agente, los agentes IAPG son inherentemente vulnerables a retos sistémicos clásicos, particularmente en lo referente a la coordinación efectiva de sus operaciones y a la garantía de su seguridad individual.

Fuente: MIT AI Risk Repositorymit1064

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1064

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.1 > Dependencia excesiva y uso inseguro

Estrategia de mitigacion

1. Implementación de un Marco Sistémico de Gestión de Riesgos y Evaluación Pre-DespliegueEstablecer un "Marco de Seguridad y Gobernanza de Sistemas Multi-Agente" robusto que exija la evaluación y mitigación proactiva de riesgos sistémicos. Esto incluye la simulación a nivel de cadena (Chain-level Simulation) antes del despliegue para detectar vulnerabilidades de coordinación, fallas en cascada y comportamientos emergentes. Se deben aplicar técnicas de prueba rigurosas como el "Red Teaming" y la "Ingeniería del Caos" para estresar los sistemas con entradas contradictorias y alta demanda, asegurando la resiliencia del sistema ante la interconexión y las acciones autónomas correlacionadas.2. Desarrollo y Aplicación de Protocolos de Interacción Seguros y Defensa Multi-CapaDiseñar y hacer cumplir protocolos de comunicación estandarizados y seguros para las interacciones inter-agente, reduciendo la vulnerabilidad a ataques de manipulación o inyección. Aplicar un enfoque de modelado de amenazas por capas (ej. MAESTRO) para implementar medidas de seguridad específicas en cada nivel arquitectónico (modelos fundacionales, sistemas de memoria y canales de comunicación), mitigando el riesgo de envenenamiento de datos, fallos de seguridad y violaciones de la integridad de la información.3. Establecimiento de Mecanismos de Alineación de Incentivos y Clarificación de ResponsabilidadIntegrar mecanismos de diseño de información y alineación de objetivos que guíen a los agentes a priorizar la estabilidad del mercado sobre los incentivos individuales puramente egoístas, abordando el riesgo de desajuste fundamental en la alineación de objetivos. Concomitantemente, se debe definir con claridad la "Responsabilidad por el Resultado Colectivo" en el marco de gobernanza, asegurando la supervisión humana durante el ciclo de vida (Human-in-the-Loop) y asignando roles explícitos de supervisión y rendición de cuentas para las acciones de los agentes.