Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Disminución de confianza social por desinformación

El uso de sistemas de Inteligencia Artificial de Propósito General (IAPG) facilita la proliferación tanto de desinformación deliberada como de información errónea involuntaria. Esto tiene el potencial de erosionar gravemente la confianza en las figuras públicas y en las instituciones democráticas, un efecto que se extiende a los medios de comunicación y que, en última instancia, resulta en una sociedad menos informada.

Fuente: MIT AI Risk Repositorymit1061

ENTIDAD

1 - Humano

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1061

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. Implementación de Gobernanza y Mitigación en el Origen: Establecer marcos de gobernanza de la IA rigurosos, con especial atención a la calidad y la integridad de los datos de entrenamiento. Esto incluye la adopción de arquitecturas como la Generación Aumentada por Recuperación (RAG) y la aplicación sistemática de pruebas adversarias y monitoreo continuo, conforme a los requisitos regulatorios para modelos de propósito general con riesgo sistémico (p. ej., EU AI Act), para reducir la generación intrínseca de *misinformation* y *disinformation*. 2. Aumento de la Transparencia y Trazabilidad del Contenido: Obligar a la implementación de mecanismos de transparencia que permitan la identificación inequívoca del contenido generado por IA. Esto abarca el uso de marcas de agua digitales o metadatos inalterables, la divulgación de las capacidades y limitaciones del modelo mediante informes detallados, y la claridad en los procesos de toma de decisiones para que los usuarios puedan ejercer la evaluación crítica de la fuente. 3. Desarrollo de Resiliencia Social mediante la Alfabetización Digital: Financiar y desplegar programas educativos masivos centrados en la alfabetización digital y mediática. Estos programas deben priorizar estrategias de inoculación (advertencias preventivas sobre tácticas de engaño) y *debunking* (corrección retroactiva de falsedades), con el objetivo de empoderar a la ciudadanía para que desarrolle un discernimiento crítico, reduciendo así la dependencia y la propensión a compartir información errónea generada por IA.