Entornos de información degradados y homogeneizados
Más allá de esto, la adopción masiva de asistentes de inteligencia artificial avanzados para la generación de contenido podría acarrear una serie de consecuencias negativas para nuestro ecosistema de información compartido. Una preocupación central es la posible degradación de la calidad de la información disponible en línea. Los investigadores ya han notado un aumento en la desinformación audiovisual, las estafas elaboradas y los sitios web falsos creados con herramientas de IA generativa (Hanley y Durumeric, 2023). A medida que más personas recurren a la IA para crear y difundir información de forma autónoma y a gran escala, se vuelve progresivamente más difícil distinguir y verificar la información confiable. Esto, a su vez, podría amenazar y complicar el estatus de periodistas, expertos en la materia y fuentes de información pública. Con el tiempo, la proliferación de contenido sintético de baja calidad, spam o engañoso podría erosionar lo que conocemos como el "acervo digital de conocimiento" (los recursos compartidos accesibles para todos en la web, como los repositorios de datos públicos) (Huang y Siddarth, 2023). En su punto más extremo, esta degradación podría llegar a distorsionar la visión de la realidad y el consenso científico de las personas, aumentar su escepticismo sobre la credibilidad de toda la información que encuentran y modelar el discurso público de maneras improductivas. Además, en un entorno en línea saturado de contenido generado por IA, una porción creciente de la población podría volverse dependiente de asistentes de IA personalizados y muy capaces para cubrir sus necesidades informativas. Esto conlleva el riesgo de homogeneizar el tipo de información e ideas que las personas encuentran en línea (Epstein et al., 2023).
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit399
Linea de dominio
3. Desinformación
3.2 > Contaminación del ecosistema de información y pérdida de la realidad consensuada
Estrategia de mitigacion
1. Implementar la obligación de etiquetar de forma clara y visible todo contenido generado o sustancialmente modificado por IA (p. ej., deepfakes), asegurando la trazabilidad de la fuente y el método de generación. Esta transparencia es fundamental para mitigar la erosión de la confianza en las fuentes de información. 2. Desarrollar e implementar herramientas avanzadas y procesos de verificación intersectoriales (que involucren a periodistas, científicos y expertos en tecnología) para autenticar la procedencia y el contexto de contenido multimedia. El objetivo es combatir la proliferación masiva de estafas, sitios web falsos y desinformación audiovisual. 3. Exigir la revisión continua de los modelos de IA generativa (tanto en su entrenamiento como en su optimización) para mitigar el comportamiento de búsqueda de modo ("mode-seeking") y la convergencia de ideas. Paralelamente, se debe fomentar la intervención humana crítica y la alfabetización mediática para asegurar la diversidad semántica y el pensamiento original.