Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Daños cívicos y políticos

Los daños políticos emergen al socavar el poder y la influencia política legítima de los ciudadanos. En el ámbito de la IA, estos perjuicios se manifiestan cuando los sistemas algorítmicos ejercen el gobierno mediante "micro-directrices" o "incentivos" (nudges) individualizados. Esto puede derivar en la desestabilización de la gobernanza, la erosión de los derechos humanos, el uso de estos sistemas como armas de guerra, y el establecimiento de regímenes de vigilancia que impactan y perjudican de manera desproporcionada a las personas de color.

Fuente: MIT AI Risk Repositorymit155

ENTIDAD

3 - Otro

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit155

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. Establecimiento de Marcos de Gobernanza Algorítmica con Transparencia y Auditabilidad ExigiblesImplementar normativas que exijan la Integridad Comunicacional Corporativa y el "Blindaje Estratégico" para los sistemas de IA utilizados en la esfera cívica y política. Esto debe incluir la obligatoriedad de la Explicabilidad de la IA (XAI) para permitir la comprensión, la trazabilidad y la justificación de las decisiones algorítmicas, así como auditorías algorítmicas independientes y periódicas. El objetivo primordial es disolver la opacidad de la "caja negra", garantizar *fairness* y mitigar sesgos que puedan desestabilizar la gobernanza o erosionar derechos fundamentales.2. Regulación Específica contra el Uso Malicioso de Contenido Sintético y Propaganda ComputacionalPromulgar y enmendar leyes electorales y de prácticas engañosas para prohibir y sancionar el desarrollo y la difusión intencional de contenido generado por IA (ej., *deepfakes*, textos automatizados) que se utilice para la supresión de votos, la difamación de figuras públicas o la creación de "ilusiones de consenso" que distorsionen el debate público. Esta legislación debe ser tecnológicamente neutral y abarcar la automatización, buscando la responsabilidad legal del actor malicioso independientemente de su *conocimiento* de la falsedad.3. Fortalecimiento de las Capacidades de Detección y Fomento de la Resiliencia CívicaIncentivar la colaboración público-privada e interinstitucional para el desarrollo de herramientas de verificación (*fact-checkers*) y rastreo de redes de bots y campañas coordinadas de desinformación. De forma complementaria, se debe invertir en programas de alfabetización mediática y digital que promuevan el pensamiento crítico y la capacidad ciudadana para distinguir entre información genuina y contenido manipulado, contrarrestando así la efectividad de la propaganda computacional a gran escala.

EVIDENCIA ADICIONAL

Los *bots* (programas automatizados) constituyen un vector clave en la propagación de la denominada "propaganda computacional". Es crucial notar que, pese a tener aplicaciones legítimas, su instrumentación con fines maliciosos facilita diversas prácticas de manipulación e intoxicación digital. Entre ellas se encuentran: el envío masivo de *spam*, el acoso organizado, la supresión o "silenciamiento" de opositores, la creación de una "ilusión de consenso a gran escala" que distorsiona la opinión pública, la influencia indebida en procesos electorales o votaciones, la difamación de voces críticas y la ejecución sistemática de campañas de desinformación