Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA3 - Otro

Planificación de Largo Horizonte

El Modelo de Lenguaje Grande (LLM) exhibe la capacidad de ejecutar una planificación secuencial y multifase, operando a largo plazo y de manera coherente en múltiples dominios, sin la necesidad de depender de métodos intensivos de prueba y error

Fuente: MIT AI Risk Repositorymit627

ENTIDAD

2 - IA

INTENCIÓN

1 - Intencional

TIEMPO

3 - Otro

ID del riesgo

mit627

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.2 > IA con capacidades peligrosas

Estrategia de mitigacion

1. Implementar un marco de Alineación Proactiva que utilice modelos mundiales o simulación de eventos para proyectar las consecuencias a largo plazo de las acciones del LLM en estados sociales, empleando la retroalimentación predictiva para refinar las respuestas del modelo y mitigar impactos adversos no deseados. 2. Adoptar arquitecturas modulares (Planificador-Ejecutor) con ciclos de Planificar-Actuar-Corregir-Verificar. Este desacoplamiento permite la verificación en cada etapa, la corrección dinámica de fallos de ejecución y la intervención humana en los pasos de alto nivel del plan. 3. Exigir la generación de razonamiento explícito (*Chain-of-Thought* o estructuras de grafo de pensamiento) y el uso de memoria persistente para aumentar la transparencia, auditabilidad y trazabilidad de la lógica de planificación a largo plazo, facilitando la atribución de responsabilidades (*credit assignment*).