Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Desinformación y Violaciones de Privacidad

La inherente falta de fiabilidad en los modelos de Inteligencia Artificial de propósito general introduce riesgos multifacéticos. Estos sistemas pueden diseminar información incorrecta o engañosa, omitir datos esenciales para una comprensión completa, o incluso divulgar información objetivamente cierta, pero cuya exposición constituye una vulneración directa de los derechos de privacidad.

Fuente: MIT AI Risk Repositorymit746

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit746

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

1. Prioridad Máxima: Implementación de un Marco de Gobernanza Robusto y Supervisión Humana Establecer un sistema de gobernanza de la IA que exija la validación y el control de calidad riguroso por parte de expertos humanos para todas las salidas del modelo de propósito general en dominios sensibles o de alto impacto. Este protocolo debe incluir la verificación de hechos (fact-checking) y la revisión de riesgos de privacidad antes de la difusión, asegurando la trazabilidad de la decisión final y un mecanismo de respuesta rápida para la corrección de errores de desinformación o fugas de datos. 2. Prioridad Media: Aplicación de Técnicas de Preservación de la Privacidad y Filtrado de Salida Integrar de manera mandatoria tecnologías de mejora de la privacidad, como el entrenamiento con privacidad diferencial y la anonimización o seudonimización estricta de los datos de entrenamiento. Adicionalmente, implementar filtros de salida en el entorno de post-despliegue que detecten y enmascaren automáticamente cualquier información de identificación personal (PII) o datos sensibles para prevenir vulneraciones de privacidad involuntarias en la respuesta generada. 3. Prioridad Mínima: Fomento de la Transparencia y la Calibración de la Confianza Desarrollar y comunicar métricas de fiabilidad y explicabilidad (XAI) para el modelo, permitiendo a los usuarios evaluar el nivel de incertidumbre o la fuente de la información proporcionada. Las salidas deben ser acompañadas por indicadores claros de la confianza epistémica del modelo en su respuesta y alertas sobre el potencial de la información para ser inexacta o sesgada, promoviendo la lectura crítica por parte del usuario final.