Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Riesgos cognitivos (Amplificación de burbujas de información)

La inteligencia artificial (IA) se utiliza extensamente para el perfilado de usuarios y la personalización de servicios de información. Esto implica la recopilación y el análisis exhaustivo de datos de los usuarios (sus tipos, necesidades, intenciones, preferencias, hábitos e incluso la conciencia pública dominante) para ofrecer contenido y servicios estrictamente formulados a medida. El riesgo ético clave reside en que este proceso agrava significativamente el efecto de las "burbujas de filtro" o "filtros burbuja" (information cocoons).

Fuente: MIT AI Risk Repositorymit663

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit663

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.2 > Contaminación del ecosistema de información y pérdida de la realidad consensuada

Estrategia de mitigacion

1. Priorizar el diseño de sistemas de recomendación que incorporen intencionalmente *diversidad de perspectivas* o *contenido refutatorio*, en lugar de optimizar únicamente para la métrica de *engagement*, para contrarrestar la convergencia hacia el consenso algorítmico y mitigar la formación de cámaras de eco. 2. Establecer la *transparencia algorítmica* en los mecanismos de perfilado de usuario, lo que implica informar claramente al individuo sobre las variables de datos utilizadas para definir su "burbuja de filtro" y ofrecer controles granulares y sencillos para reajustar los parámetros de personalización o optar por una experiencia *de-personalizada*. 3. Promover activamente la *alfabetización mediática y digital* en la población para fomentar el *pensamiento crítico* y la capacidad de los usuarios para reconocer y cuestionar la influencia de la personalización algorítmica sobre su percepción de la realidad e ideología.