Daños de información
Los "daños basados en la información" constituyen una categoría fundamental en la seguridad de la IA, pues capturan el espectro de riesgos derivados de la información errónea, la desinformación y la malinformación. Es crucial comprender que los sistemas algorítmicos—en especial los modelos generativos y los sistemas de recomendación—funcionan como vectores poderosos capaces de catalizar y amplificar la aparición de estos perjuicios informacionales.
ENTIDAD
3 - Otro
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit153
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
1. IMPLEMENTACIÓN DE ALFABETIZACIÓN DIGITAL Y ALGORÍTMICA SOSTENIDA Establecer y escalar programas curriculares de educación cívica enfocados en la alfabetización digital y algorítmica. El objetivo es dotar a los usuarios con las herramientas cognitivas necesarias para comprender cómo operan los sistemas algorítmicos (modelos generativos y de recomendación) en la selección y presentación de información, lo que les permitirá evaluar críticamente la credibilidad de las fuentes y desarrollar una mayor resiliencia ante la desinformación, la malinformación y las narrativas engañosas. 2. REQUISITOS DE TRANSPARENCIA Y TRAZABILIDAD ALGORTÍTMICA (EXPLAINABILITY) Diseñar y aplicar estándares técnicos y políticas obligatorias para la transparencia y la explicabilidad (XAI) en los sistemas de IA que manipulan información. Esto implica integrar herramientas de trazabilidad (provenance) para que las salidas de los modelos puedan ser rastreadas hasta sus fuentes de datos de entrenamiento, y utilizar arquitecturas como la Generación Aumentada por Recuperación (RAG) para fundamentar el contenido en fuentes verificables. Las auditorías algorítmicas, realizadas por terceros y con un enfoque en la integridad del resultado, deben ser un requisito previo y continuo al despliegue. 3. ESTABLECIMIENTO DE VETOS DE SUPERVISIÓN HUMANA Y MECANISMOS DE RESPONSABILIDAD Incorporar puntos de control (control points) con supervisión humana en las etapas críticas del ciclo de vida del contenido generado o recomendado por IA. Esto asegura que haya un veto humano en decisiones de alto impacto antes de la difusión masiva. Adicionalmente, se debe implementar un marco de rendición de cuentas (accountability) que establezca claramente la cadena de responsabilidad por los resultados dañinos y que garantice mecanismos de reporte y remediación eficientes para los usuarios afectados por información falsa o engañosa.
EVIDENCIA ADICIONAL
La exposición de los usuarios a la información se encuentra cada vez más mediada por sistemas algorítmicos que ensamblan y presentan el contenido. El riesgo inherente radica en que una porción considerable de la población carece de la alfabetización digital o algorítmica fundamental para comprender la naturaleza e intensidad de esta influencia, es decir, cómo estos procesos determinan su acceso a la información y, en esencia, definen lo que tienen permitido ver.