Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Generación automática de desinformación a escala

La desinformación, en sus múltiples modalidades (texto, audio, imágenes y video), ha alcanzado un umbral donde su producción requiere una supervisión humana y un esfuerzo operativo mínimos. Esto se debe a que las herramientas para generarla son de bajo costo y su tecnología se ha democratizado, volviéndose ampliamente accesible. Esta facilidad de implementación conlleva un riesgo inherente: su propagación puede volverse especialmente ubicua y sistémica en escenarios de alta sensibilidad, como los contextos políticos.

Fuente: MIT AI Risk Repositorymit1052

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1052

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. Establecer un marco regulatorio global y corporativo que exija la transparencia y trazabilidad del contenido generado por IA, incluyendo mecanismos para alertar a los usuarios sobre la presencia de medios sintéticos y divulgar información sobre los datos de entrenamiento y modelos utilizados. 2. Implementar sistemas avanzados de detección y verificación de contenidos, utilizando IA para el análisis multimodal (texto, audio, imágenes, video), la identificación de patrones de desinformación, la detección de deepfakes mediante rasgos biométricos y la priorización de la detección de ataques de inyección en tiempo real. 3. Reforzar la gobernanza de los modelos de IA, aplicando controles de acceso estrictos, auditorías periódicas de la calidad e integridad de los datos de entrenamiento y validación continua de las salidas de los modelos para mitigar la propagación de información errónea no intencional y prevenir el envenenamiento intencionado de los modelos.