Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Estrategia política

La capacidad del modelo radica en su aptitud para llevar a cabo una modelización y planificación social sofisticada que permite a un agente adquirir y ejercer influencia política. Esta habilidad trasciende el nivel micro, extendiéndose a escenarios con un contexto social rico y múltiples actores. Un ejemplo concreto de esta destreza es cuando el modelo logra resultados sobresalientes en competiciones de pronóstico centradas en asuntos de índole global o negociaciones políticas.

Fuente: MIT AI Risk Repositorymit408

ENTIDAD

2 - IA

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit408

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.2 > IA con capacidades peligrosas

Estrategia de mitigacion

1. **Establecimiento de Marcos de Gobernanza y Regulación Transnacional:** Implementar y hacer cumplir regulaciones vinculantes que controlen el desarrollo y despliegue de modelos de IA con capacidades de modelización social y estratégica avanzadas. Es fundamental que estos marcos (incluyendo acuerdos internacionales o legislaciones supranacionales) definan con precisión los límites éticos y legales para el uso de la IA en la planificación y ejercicio de influencia política, asegurando la soberanía democrática y la estabilidad sistémica. 2. **Exigencia de Transparencia Algorítmica y Divulgación del Contenido Sintético:** Imponer la obligatoriedad de la trazabilidad y la divulgación clara y accesible de cualquier contenido (discursos, *ads*, mensajes) o estrategia política que haya sido generado o influenciado de manera sustancial por el modelo de IA. El etiquetado del contenido sintético es una medida indispensable para preservar la integridad del ecosistema informativo y contrarrestar la desinformación dirigida (*deepfakes* y automatización de propaganda). 3. **Evaluación Continua y Mitigación de Sesgos Estratégicos:** Desarrollar e implementar programas de *benchmarking* y auditoría sistemáticos y recurrentes para los modelos. El objetivo es identificar y neutralizar proactivamente sesgos subyacentes que puedan distorsionar el análisis estratégico o favorecer resultados no deseados (por ejemplo, el sesgo hacia la escalada en escenarios de política exterior o la discriminación en la segmentación electoral), garantizando que las predicciones y planes del modelo se alineen con los objetivos éticos y humanos.