Desarrollos en IA permiten socavar procesos democráticos
El avance de la Inteligencia Artificial está confiriendo a empresas y gobiernos un control sin precedentes sobre las vidas de los individuos, lo que plantea la posibilidad de que sea utilizada para socavar los procesos democráticos. Ya estamos observando cómo la recopilación masiva de datos personales se emplea para la vigilancia y la influencia poblacional. Un ejemplo notorio es el uso de la tecnología de reconocimiento facial para monitorizar a la población uigur y otras minorías en China [66]. Adicionalmente, nuevos progresos en el modelado de lenguaje podrían facilitar la creación de herramientas capaces de persuadir eficazmente a las personas sobre ciertas afirmaciones o narrativas [42]
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit788
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Implementar un marco integral de gobernanza y rendición de cuentas de la Inteligencia Artificial (IA) que establezca políticas claras, procesos de revisión ética independientes y mecanismos de supervisión para regular el desarrollo y despliegue de sistemas de alto impacto. Esto incluye la adopción obligatoria de estándares internacionales de gestión de riesgos (e.g., NIST AI RMF) y el mantenimiento de rastros de auditoría pormenorizados para garantizar la trazabilidad de las decisiones y la responsabilidad legal. 2. Establecer requisitos rigurosos de transparencia y consentimiento informado, particularmente para sistemas de vigilancia masiva como la tecnología de reconocimiento facial (TRF). Es fundamental garantizar que los individuos sean informados de manera explícita y tengan la capacidad de optar por la no recopilación, uso y compartición de sus datos biométricos, minimizando el riesgo de control poblacional y la violación de libertades individuales. 3. Invertir en la investigación y el desarrollo de contramedidas robustas para la detección y mitigación de la desinformación y la manipulación generada por IA. Esto implica el despliegue de tecnologías que verifiquen la autenticidad del contenido (*content provenance*), la validación humana rigurosa de los resultados de los modelos y la promoción activa de programas de alfabetización digital para fomentar la resiliencia cognitiva de la ciudadanía.