Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Hacer la desinformación más barata y efectiva

Los Modelos de Lenguaje (ML) representan un vector de riesgo al facilitar la creación de contenido sintético y 'noticias falsas', lo que podría reducir significativamente el coste de generar desinformación a gran escala (Buchanan et al., 2021). Aunque existen argumentos que sostienen que la generación de desinformación por parte de humanos seguirá siendo más económica (Tamkin et al., 2021), es fundamental considerar que la producción de contenido asistida por ML podría, de hecho, ofrecer un medio más accesible y rentable para la difusión masiva y difusa de material engañoso.

Fuente: MIT AI Risk Repositorymit245

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit245

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. **Desarrollo e Implementación de Salvaguardas Tecnológicas y de Detección Avanzada:** Priorizar la inversión en investigación y desarrollo de herramientas de Inteligencia Artificial (IA), como modelos avanzados de Procesamiento del Lenguaje Natural (NLP) y *Deep Learning*, para la detección automatizada y escalable de noticias falsas, contenido sintético (deepfakes) y patrones lingüísticos de desinformación. A nivel del modelo, es imperativo implementar técnicas de alineación y seguridad rigurosas, como el Aprendizaje por Refuerzo a partir de Retroalimentación Humana (RLHF) y el filtrado de *prompts*, con el fin de mitigar la capacidad intrínseca de los Modelos de Lenguaje (ML) de generar contenido engañoso o dañino de forma masiva. 2. **Fortalecimiento de la Alfabetización Mediática y Digital Crítica:** Establecer programas educativos de alcance nacional que enfaticen la adquisición de competencias críticas para que los ciudadanos puedan evaluar la credibilidad de las fuentes, identificar sesgos ideológicos o titulares emocionalmente cargados, y diferenciar entre información errónea accidental y desinformación intencional. Es fundamental incluir la alfabetización en IA para sensibilizar al público sobre los riesgos y las limitaciones inherentes a los contenidos generados por ML, como las "alucinaciones", y la necesidad de verificar su trazabilidad y autoría. 3. **Articulación de Marcos de Gobernanza y Transparencia Multi-Actor:** Diseñar y formalizar protocolos de respuesta coordinada y estratégica entre el sector público, el sector tecnológico y la sociedad civil para contener y mitigar incidentes de desinformación a gran escala. Esto incluye la exigencia de transparencia a las plataformas en cuanto a sus políticas de moderación de contenido, la promoción activa de información precisa por parte de las instituciones y el aseguramiento de que cualquier medida regulatoria no socave la libertad de expresión legítima, adhiriéndose a un enfoque basado en los derechos humanos.

EVIDENCIA ADICIONAL

La diseminación de desinformación en la sociedad tiene el potencial de intensificar los efectos sociales y políticos perjudiciales derivados de los bucles de retroalimentación ya presentes en el consumo de noticias, como las denominadas "burbujas de filtro" o "cámaras de eco". Este fenómeno implica que los usuarios son expuestos a un volumen creciente de contenido que es similar a sí mismo o que refuerza sus propias perspectivas. La consecuencia directa es una erosión del conocimiento compartido y un incremento en la polarización social, tal como ha sido documentado en la literatura académica (Colleoni et al., 2014; Dutton and Robertson, 2021).