Autenticidad
A medida que la Inteligencia Artificial generativa avanza, se vuelve cada vez más complejo discernir la autenticidad de cualquier contenido o creación. Las fotografías que simulan capturar personas o eventos del mundo real pueden ser, en realidad, productos sintéticos de algoritmos DeepFake. Este formidable poder de la IA podría facilitar manipulaciones de imágenes y videos a gran escala, intensificando la propagación de la desinformación y las noticias falsas en las plataformas sociales (Gragnaniello et al., 2022). Paralelamente, en el campo de las artes, una pieza musical o un retrato artístico pueden ser el resultado directo de un algoritmo. Sobre este punto, la crítica ha planteado que la obra generada por IA adolece de falta de autenticidad intrínseca, principalmente porque los algoritmos tienden a producir resultados que son inherentemente genéricos y repetitivos (McCormack et al., 2019).
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit512
Linea de dominio
6. Socioeconómico y Ambiental
6.3 > Devaluación económica y cultural del esfuerzo humano
Estrategia de mitigacion
1. Establecer un marco de autenticación y procedencia de contenido digital: Implementar soluciones técnicas robustas, como marcas de agua ineludibles y metadatos legibles por máquina (p. ej., el estándar C2PA), para identificar de forma inequívoca el contenido generado o manipulado por sistemas de IA generativa. Esto debe complementarse con el desarrollo continuo de algoritmos avanzados de detección de deepfakes y anomalías para verificar la autenticidad de los medios. 2. Imponer la obligación de transparencia y fortalecer la gobernanza: Promulgar y hacer cumplir regulaciones que exijan a los proveedores de sistemas de IA y a las plataformas de distribución etiquetar de manera clara y detectable el contenido sintético. A nivel corporativo, establecer estructuras de gobernanza que prioricen la autenticidad del output de la IA y la implementación de programas detallados de gestión de riesgo de fraude. 3. Reforzar la validación humana y la educación pública: Integrar la supervisión y validación humana en los procesos donde se utilice la IA, especialmente para resultados críticos o creativos, asegurando la curación de los datos de entrenamiento para evitar la generación de resultados genéricos o repetitivos. Paralelamente, implementar programas de sensibilización ciudadana para fomentar el escepticismo digital y la identificación de indicadores de manipulación.