Volver al repositorio MIT
2. Privacidad y Seguridad3 - Otro

Problemas en Herramientas Externas

La integración de herramientas externas, tales como las interfaces de programación de aplicaciones (API) web, plantea desafíos inherentes a la seguridad de las aplicaciones basadas en Modelos de Lenguaje Grandes (LLM). Específicamente, se introducen problemas críticos relativos a la confiabilidad de los datos que estas herramientas aportan y a la gestión rigurosa de la privacidad de la información.

Fuente: MIT AI Risk Repositorymit28

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit28

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA

Estrategia de mitigacion

1. Implementar un Modelo de Seguridad de Confianza Cero y Aislamiento de Ejecución para las integraciones externas (APIs y plugins). Esto implica el sandboxing o contenerización de dichos componentes, la aplicación de autenticación y autorización estrictas (RBAC/MFA) con el principio de mínimo privilegio en cada solicitud, y el aislamiento de los endpoints críticos del modelo. 2. Establecer un proceso riguroso de Validación de Proveedores y de Integridad de Datos. Esto incluye la verificación de la seguridad y el cumplimiento normativo de las APIs de terceros, la comprobación continua de la integridad del modelo (version control y hash criptográfico) y la sanitización de todas las entradas y salidas de datos que interactúan con las herramientas externas. 3. Monitorear de forma continua la actividad de las APIs y el comportamiento en tiempo de ejecución de las herramientas integradas. Desplegar sistemas de detección de anomalías (incluyendo limitación de tasas/rate limiting) para identificar en tiempo real patrones de uso no autorizados, abuso de recursos o intentos de fuga de datos, permitiendo la respuesta automática a amenazas.