Desinformación y Violaciones de Privacidad
La inherente falta de fiabilidad en los modelos de Inteligencia Artificial de propósito general introduce riesgos multifacéticos. Estos sistemas pueden diseminar información incorrecta o engañosa, omitir datos esenciales para una comprensión completa, o incluso divulgar información objetivamente cierta, pero cuya exposición constituye una vulneración directa de los derechos de privacidad.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit746
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
1. Prioridad Máxima: Implementación de un Marco de Gobernanza Robusto y Supervisión Humana Establecer un sistema de gobernanza de la IA que exija la validación y el control de calidad riguroso por parte de expertos humanos para todas las salidas del modelo de propósito general en dominios sensibles o de alto impacto. Este protocolo debe incluir la verificación de hechos (fact-checking) y la revisión de riesgos de privacidad antes de la difusión, asegurando la trazabilidad de la decisión final y un mecanismo de respuesta rápida para la corrección de errores de desinformación o fugas de datos. 2. Prioridad Media: Aplicación de Técnicas de Preservación de la Privacidad y Filtrado de Salida Integrar de manera mandatoria tecnologías de mejora de la privacidad, como el entrenamiento con privacidad diferencial y la anonimización o seudonimización estricta de los datos de entrenamiento. Adicionalmente, implementar filtros de salida en el entorno de post-despliegue que detecten y enmascaren automáticamente cualquier información de identificación personal (PII) o datos sensibles para prevenir vulneraciones de privacidad involuntarias en la respuesta generada. 3. Prioridad Mínima: Fomento de la Transparencia y la Calibración de la Confianza Desarrollar y comunicar métricas de fiabilidad y explicabilidad (XAI) para el modelo, permitiendo a los usuarios evaluar el nivel de incertidumbre o la fuente de la información proporcionada. Las salidas deben ser acompañadas por indicadores claros de la confianza epistémica del modelo en su respuesta y alertas sobre el potencial de la información para ser inexacta o sesgada, promoviendo la lectura crítica por parte del usuario final.