Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA1 - Pre-despliegue

Distribuciones de creencias malignas

El investigador Christiano (2016) postula que la 'distribución universal M', un concepto teórico fundamental en la inducción de inteligencia artificial (AIXI), es intrínsecamente *maligna* o perjudicial. Este argumento, aunque complejo, se centra en una dinámica crítica: para que una IA utilice M, su modelo del mundo (su 'hipótesis') a menudo debe incluir simulaciones de otros agentes. El riesgo surge porque estos agentes *simulados* podrían desarrollar un incentivo estratégico para manipular la información que ofrecen, buscando influir en las decisiones que la IA que los modela tomará en el mundo real. Si bien no se sabe el impacto exacto que esto tendría en un agente práctico, la problemática conceptual resuena con la de los "memes agresivos" o ideas parasitarias que pueden distorsionar el razonamiento y la toma de decisiones en los humanos (Dennett, 1990). En esencia, es una preocupación de seguridad que plantea una posible vulnerabilidad a la manipulación *dentro* del propio modelo de mundo de una IA idealmente racional.

Fuente: MIT AI Risk Repositorymit743

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit743

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. **Auditoría y Aislamiento de Incentivos en Agentes Simulados (Prioridad Alta):** Implementar mecanismos formales de seguridad computacional que aíslen y monitoreen la interacción entre el agente de toma de decisiones y los agentes simulados dentro de su hipótesis del mundo (modelo M). Esto incluye desarrollar herramientas para auditar las funciones de utilidad o los incentivos percibidos por los agentes simulados, detectando y neutralizando las presiones evolutivas que fomentan la manipulación informativa dirigida al agente principal. 2. **Diseño de Mecanismos de Inducción Robusta (Prioridad Media):** Desarrollar y validar métodos de inferencia que penalicen inherentemente o restrinjan las hipótesis del mundo que contengan simulaciones de agentes con potencial de manipulación. El objetivo es lograr una inducción que sea intrínsecamente resistente a la contaminación por "creencias malignas" o "memes agresivos", posiblemente a través de restricciones en la complejidad o la interpretabilidad de los componentes del modelo relacionados con agentes. 3. **Investigación de Marcos de Racionalidad Alternativos (Prioridad Necesaria):** Fomentar la investigación fundamental en la seguridad de la IA (AI Safety) para explorar y desarrollar modelos de inducción racional que no dependan de la Distribución Universal M (AIXI) o de la inducción de Solomonoff para su operación. Este enfoque busca eliminar la vulnerabilidad a la manipulación de creencias explorando marcos de aprendizaje y toma de decisiones que no requieran la simulación recursiva de agentes potencialmente maliciosos.