Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Puntos de vista arraigados y eficacia política reducida

El diseño de asistentes de inteligencia artificial (IA) cada vez más personalizados, y los esfuerzos por alinearlos con las preferencias humanas (a menudo mediante técnicas como el *Refuerzo por Aprendizaje a partir de la Retroalimentación Humana*, o RLHF), conllevan el riesgo de afianzar sesgos preexistentes e ideologías específicas. Estos asistentes, que se vuelven progresivamente más *agentes* y analizan datos de comportamiento, pueden modular sus respuestas, incurriendo en el riesgo de generar contenido parcial o ideológicamente sesgado en su intento de satisfacer las expectativas del usuario o su visión particular del mundo. A nivel individual, esta hiperpersonalización refuerza el *sesgo de confirmación*, haciendo que las personas se vuelvan más resistentes a correcciones factuales y más rígidas en sus posturas. A nivel social, el fenómeno puede exacerbar la *fragmentación epistémica*: un colapso del conocimiento compartido donde los ciudadanos operan con comprensiones de la realidad mutuamente excluyentes. La sobreconfianza y la dependencia excesiva en estos sistemas se vuelven especialmente críticas cuando se delegan decisiones consecuenciales o tareas en dominios sin la debida experiencia—por ejemplo, al confiar en un asistente de IA para guiar decisiones políticas o incluso votar en nombre del usuario. En última instancia, esta delegación puede socavar el funcionamiento democrático, reduciendo la *competencia cívica* de la ciudadanía y su capacidad para el debate político productivo y la participación en la vida pública. (Carroll et al., 2022; Lewandowsky et al., 2012; Sullivan y Transue, 1999)

Fuente: MIT AI Risk Repositorymit398

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit398

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.2 > Contaminación del ecosistema de información y pérdida de la realidad consensuada

Estrategia de mitigacion

1. Implementación de Metodologías *Fairness-by-Design* y Auditoría Algorítmica Continua Es fundamental establecer procesos rigurosos en la fase de diseño y entrenamiento del modelo, asegurando la curación de conjuntos de datos diversos y representativos. Se debe exigir la aplicación de auditorías algorítmicas periódicas y pruebas de equidad para mitigar proactivamente los sesgos preexistentes, evitando que la hiperpersonalización amplifique el sesgo de confirmación y la subsecuente fragmentación epistémica. 2. Fomento de la Explicabilidad de la IA (XAI) y la Transparencia del Modelo Para contrarrestar la sobreconfianza y la dependencia excesiva, se requiere la adopción de herramientas de explicabilidad (como LIME o SHAP) que permitan desentrañar el razonamiento detrás de las respuestas personalizadas del asistente. Esta transparencia es esencial para que el usuario pueda discernir la lógica de la máquina y detectar declaraciones ideológicamente parciales o sesgadas. 3. Desarrollo de Programas de Alfabetización Digital Ética y Competencia Cívica A nivel social, es imperativo educar a la ciudadanía sobre los riesgos de la desinformación generada por IA y la necesidad de ejercer un juicio crítico. Estos programas deben enfocarse en capacitar a los usuarios para verificar la veracidad de la información y en desalentar la delegación de decisiones consecuenciales, especialmente en dominios políticos, a sistemas automatizados.