Riesgos cognitivos (Amplificación de burbujas de información)
La inteligencia artificial (IA) se utiliza extensamente para el perfilado de usuarios y la personalización de servicios de información. Esto implica la recopilación y el análisis exhaustivo de datos de los usuarios (sus tipos, necesidades, intenciones, preferencias, hábitos e incluso la conciencia pública dominante) para ofrecer contenido y servicios estrictamente formulados a medida. El riesgo ético clave reside en que este proceso agrava significativamente el efecto de las "burbujas de filtro" o "filtros burbuja" (information cocoons).
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit663
Linea de dominio
3. Desinformación
3.2 > Contaminación del ecosistema de información y pérdida de la realidad consensuada
Estrategia de mitigacion
1. Priorizar el diseño de sistemas de recomendación que incorporen intencionalmente *diversidad de perspectivas* o *contenido refutatorio*, en lugar de optimizar únicamente para la métrica de *engagement*, para contrarrestar la convergencia hacia el consenso algorítmico y mitigar la formación de cámaras de eco. 2. Establecer la *transparencia algorítmica* en los mecanismos de perfilado de usuario, lo que implica informar claramente al individuo sobre las variables de datos utilizadas para definir su "burbuja de filtro" y ofrecer controles granulares y sencillos para reajustar los parámetros de personalización o optar por una experiencia *de-personalizada*. 3. Promover activamente la *alfabetización mediática y digital* en la población para fomentar el *pensamiento crítico* y la capacidad de los usuarios para reconocer y cuestionar la influencia de la personalización algorítmica sobre su percepción de la realidad e ideología.