Daños Socioculturales y Políticos
Estos perjuicios se manifiestan en la interferencia con la organización pacífica de la vida social, abarcando los ámbitos cultural y político. Los asistentes de IA pueden generar fricción en las relaciones humanas, bien sea directamente (al convencer a un usuario de terminar vínculos valiosos) o indirectamente (debido a la pérdida de confianza interpersonal que deriva de una mayor dependencia en estos sistemas). A nivel social, la diseminación de desinformación por parte de la IA podría conducir a la erosión del conocimiento cultural colectivo. En el ámbito político, los sistemas de IA más avanzados tienen el potencial de manipular a los votantes. Esto se lograría induciendo la adopción de ciertas creencias políticas mediante propaganda dirigida y el uso de técnicas como los 'deep fakes' (ultrafalsificaciones). Estos efectos, a su vez, pueden tener un impacto significativo en las normas y procesos democráticos. Además, una disponibilidad desigual de los asistentes de IA concentra la capacidad de influencia, lo que podría traducirse en una injerencia indebida en el discurso político y en una merma de la diversidad de pensamiento. Finalmente, al personalizar el contenido según las preferencias y sesgos del usuario, la IA puede contribuir involuntariamente a la formación de burbujas de filtro y cámaras de eco, impulsando la polarización política y el extremismo. De hecho, se ha demostrado experimentalmente que los Grandes Modelos de Lenguaje (LLMs) poseen una capacidad de persuasión comparable a la humana para influir en opiniones sobre políticas públicas.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit363
Linea de dominio
5. Interacción Humano-Computadora
5.2 > Pérdida de agencia y autonomía humana
Estrategia de mitigacion
1. Implementación regulatoria y técnica de la trazabilidad y la transparencia en el contenido sintético (deepfakes). Es prioritario exigir el uso de marcas de agua digitales (watermarks) o metadatos de procedencia para que los modelos de IA generativa y las plataformas etiqueten de manera detectable y verificable el contenido producido artificialmente, mitigando así el riesgo de manipulación electoral y la erosión de la confianza en los procesos democráticos. 2. Desarrollo e integración de contramedidas algorítmicas para disrumpir el fenómeno de las cámaras de eco y burbujas de filtro. Se deben emplear técnicas como la regulación alostática o la optimización con restricciones de diversidad para balancear la exposición del usuario a perspectivas contrapuestas, contrarrestando la polarización política. 3. Fomento de la alfabetización mediática y digital a escala social para cultivar la agencia epistémica individual. Paralelamente, establecer marcos de gobernanza democrática que aborden la distribución inequitativa de la capacidad de influencia de la IA, asegurando que el acceso y el control de estas tecnologías respeten los valores democráticos y la diversidad de pensamiento.