IAs Persuasivas
La propagación intencionada de desinformación constituye ya una problemática seria, que erosiona nuestra comprensión colectiva de la realidad y fomenta la polarización social. Las inteligencias artificiales (IAs) tienen el potencial de agravar severamente esta situación mediante la generación de desinformación personalizada a una escala sin precedentes. Adicionalmente, conforme las IAs perfeccionen su capacidad para predecir e inducir sutilmente nuestro comportamiento (un proceso conocido como 'nudging'), su habilidad para manipularnos se incrementará notablemente.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit311
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Implementación de Supervisión Humana Integrada y Transparencia Proactiva Establecer mecanismos obligatorios de supervisión humana continua para monitorear, evaluar y corregir las acciones generadas por IAs persuasivas. Esto debe complementarse con la transparencia proactiva, informando explícitamente a los usuarios sobre el uso de la IA en la comunicación (incluyendo su propósito y alcance), lo cual es fundamental para mitigar la desconfianza y la percepción de manipulación algorítmica. 2. Desarrollo y Despliegue de Algoritmos de Detección y Mitigación de Desinformación a Escala Invertir en la investigación y el desarrollo de sistemas de Machine Learning (ML) y Deep Learning especializados en el monitoreo y clasificación automatizada de contenido. Estos algoritmos deben ser capaces de identificar y etiquetar patrones de desinformación personalizada a gran escala y aplicar técnicas de mitigación para moderar o eliminar el contenido malicioso de manera eficiente en los canales de comunicación afectados. 3. Fomento de la Alfabetización Digital Crítica y Mecanismos de Persuasión Ética Aplicada Promover programas de formación en ética digital y pensamiento crítico dirigidos tanto a los desarrolladores como a los usuarios finales, con el objetivo de aumentar la capacidad para identificar y resistir la manipulación algorítmica y los sesgos. Además, se deben establecer principios de persuasión ética aplicada que eviten el diseño engañoso y la manipulación emocional, respetando la autonomía individual del usuario.
EVIDENCIA ADICIONAL
La potencialidad de que las inteligencias artificiales saturen el ecosistema informativo con falsedades intencionadas constituye un vector de riesgo crítico para la salud de nuestro conocimiento colectivo.