Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Desinformación y manipulación de la opinión pública

La Inteligencia Artificial de propósito general plantea un riesgo significativo al ser susceptible de uso malicioso para la *desinformación*. Este término se refiere a la información falsa generada o distribuida con la intención deliberada de engañar. Una de las principales amenazas radica en que el contenido sintético producido por estas IA (incluyendo texto, imágenes, audio y video) puede ser indistinguible del material auténtico generado por humanos, facilitando su difusión a escala masiva, por ejemplo, en redes sociales. Esta capacidad para generar contenido altamente persuasivo de manera eficiente y en volumen otorga un poder considerable para persuadir y manipular a las personas, lo cual tiene profundas implicaciones éticas y políticas. Dicha herramienta podría ser explotada tanto en el sector comercial, como en publicidad a gran escala, como durante campañas electorales para influir activamente en la opinión pública y los procesos democráticos.

Fuente: MIT AI Risk Repositorymit723

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit723

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. Implementación y estandarización regulatoria de mecanismos criptográficos de trazabilidad y marca de agua (watermarking) en la generación de contenido por modelos de IA de propósito general. Esto debe asegurar la identificación fiable del origen sintético de la información multimedia (texto, imagen, audio, video) en todo su ciclo de difusión, facilitando la acción de las plataformas y los verificadores. 2. Establecimiento de protocolos obligatorios de transparencia (disclosure) y procesos de supervisión "human-in-the-loop" que exijan a los productores y distribuidores de información la divulgación explícita del uso de IA en la creación o modificación de contenido, priorizando la intervención humana en la verificación de datos críticos. 3. Desarrollo e integración de programas de alfabetización mediática y digital a nivel cívico y educativo, enfocados en dotar a los ciudadanos de las competencias críticas necesarias para discernir el contenido sintético, identificar tácticas de manipulación y aumentar la resiliencia social ante campañas de desinformación masivas.