Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Daños por Desinformación

La capacidad de los sistemas de Inteligencia Artificial para generar y propagar contenido inexacto o engañoso a escala, culminando en la alteración de la integridad epistémica del público y la consecuente adopción de creencias fundamentalmente falsas.

Fuente: MIT AI Risk Repositorymit261

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit261

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.0 > Desinformación

Estrategia de mitigacion

1. Implementación de sistemas avanzados de detección y mitigación de contenido sintético, incluyendo el uso obligatorio de técnicas de procedencia (watermarking o marca de agua) para la identificación transparente de material generado por Inteligencia Artificial (IA) y la realización de 'red-teaming' riguroso en los modelos de lenguaje grande (LLMs) previo a su despliegue para identificar y corregir vulnerabilidades de generación de falsedades. 2. Establecimiento de marcos regulatorios claros que impongan la responsabilidad y la rendición de cuentas (accountability) a los desarrolladores y plataformas por la difusión a escala de desinformación generada por IA que cause daño, junto con la exigencia de transparencia algorítmica para permitir la evaluación de su potencial de sesgo y precisión. 3. Desarrollo e integración de programas de alfabetización mediática y digital a escala global, enfocados en educar al público sobre las características distintivas y los riesgos del contenido generado por IA, fomentando la capacidad de evaluar críticamente la autenticidad y credibilidad de la información en línea.

EVIDENCIA ADICIONAL

Un ejemplo ilustrativo de la desinformación sintética es la difusión viral de una imagen generada por IA en Twitter, la cual indujo a varios medios a reportar falsamente una explosión en el Pentágono de EE. UU., provocando una caída bursátil momentánea (Alba, 2023)