Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Manipulación económica

El empleo de la Inteligencia Artificial Generativa para diseñar e implementar campañas de desinformación altamente segmentadas, con el objetivo de manipular la percepción pública y generar beneficios económicos. Un ejemplo específico de esto es la creación artificial de un consenso que permita inflar el valor de activos financieros como las acciones

Fuente: MIT AI Risk Repositorymit1211

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1211

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.3 > Fraude, estafas y manipulación dirigida

Estrategia de mitigacion

1. Establecer un Marco Regulatorio de Alto Nivel: Implementar regulaciones que obliguen a los desarrolladores y operadores de sistemas de Inteligencia Artificial Generativa (IAG) a someter sus modelos con potencial de decepción o manipulación a rigurosas evaluaciones de riesgo. Esto incluye la creación de legislación que exija la transparencia radical y la aplicación de consecuencias legales estrictas para el fraude económico asistido por IAG. 2. Desarrollo de Mecanismos de Ciberdefensa y Detección Avanzada: Invertir en investigación y desarrollo de herramientas de IAG capaces de analizar patrones lingüísticos, contenido contextual y metadatos para la detección en tiempo real de campañas de desinformación segmentada, *deepfakes* y cualquier contenido sintético que promueva la manipulación del mercado o la opinión pública con fines lucrativos. 3. Fomento de la Transparencia y la Alfabetización Digital: Exigir políticas de trazabilidad del contenido generado por IAG, incluyendo el etiquetado obligatorio (*bot-or-not*), para garantizar que los usuarios identifiquen claramente cuándo interactúan con una entidad artificial. Paralelamente, impulsar programas de alfabetización mediática y pensamiento crítico a nivel cívico para fortalecer la resiliencia del público ante técnicas de manipulación sofisticadas.