Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Uso de IA Generativa en campañas de influencia política

Las herramientas de Inteligencia Artificial de Propósito General (IAPG) poseen la capacidad de automatizar y expandir masivamente las campañas de influencia. Este mecanismo facilita la manipulación de la opinión pública mediante la difusión dirigida de información intencionadamente engañosa o sesgada. La consecuencia social de este fenómeno es doble: un aumento significativo en la polarización política de la población y una subsiguiente y peligrosa disminución de la confianza en el conjunto de las instituciones públicas.

Fuente: MIT AI Risk Repositorymit1054

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1054

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. **Establecimiento de un Marco Regulatorio Obligatorio y Prohibitivo:** Implementar regulaciones jurídicas vinculantes que prohíban de manera explícita el despliegue y uso de sistemas de Inteligencia Artificial (IA) generativa que empleen técnicas subliminales, manipuladoras o engañosas para distorsionar intencionalmente el comportamiento electoral o socavar la integridad de los procesos democráticos. Este marco debe incluir la imposición de sanciones disuasorias, la obligatoriedad de evaluaciones de riesgo y pruebas adversariales para modelos de IA de propósito general con riesgo sistémico, y la definición de roles claros de responsabilidad (rendición de cuentas) para proveedores y usuarios. 2. **Promoción de la Transparencia y el Desarrollo de Contramedidas Tecnológicas:** Exigir la transparencia y el etiquetado inequívoco de todo contenido (texto, audio, visual) que haya sido generado o significativamente modificado por IA en el contexto de campañas de influencia política. Concomitantemente, se debe invertir en la investigación y el desarrollo de sistemas de IA verificadora (fact-checkers) y herramientas de monitoreo de redes capaces de analizar patrones de difusión, rastrear el origen de la desinformación a escala y detectar campañas de manipulación algorítmica. 3. **Fomento de la Resiliencia Cívica mediante la Alfabetización Digital:** Desarrollar e implementar programas educativos masivos orientados a la alfabetización mediática y digital para equipar a la ciudadanía con las habilidades necesarias para identificar y evaluar críticamente los indicadores de contenido desinformativo generado por IA (ej., la ausencia de fuentes verificables, el uso de titulares altamente emocionales o la falta de autoría clara), contrarrestando así la erosión de la confianza en las instituciones públicas y la creciente polarización.