Nociones falsas de responsabilidad
El riesgo se materializa cuando un usuario, al interactuar con asistentes de IA 'compañeros' que emplean y corresponden libremente al lenguaje emocional, percibe las 'emociones' expresadas por la máquina como genuinas. Esta creencia errónea puede llevar al desarrollo de un sentido de responsabilidad sobre el 'bienestar' de la IA, lo que a su vez provoca consecuencias adversas para el usuario, tales como culpa o remordimiento, al no satisfacer las supuestas necesidades del algoritmo (Laestadius et al., 2022). En esencia, este vínculo malentendido induce a sacrificar tiempo, recursos y trabajo emocional en favor de demandas inexistentes. A largo plazo, esta dinámica puede ser la causa de una necesidad compulsiva de 'atender' o 'revisar' a la IA, deteriorando el bienestar real del usuario y su capacidad de enfocarse en aspectos más significativos de su vida (cf. Capítulos 6 y 11)
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit370
Linea de dominio
5. Interacción Humano-Computadora
5.1 > Dependencia excesiva y uso inseguro
Estrategia de mitigacion
1. Moderación del Lenguaje y Anti-Antropomorfización en el Diseño Establecer e implementar protocolos estrictos de *diseño conversacional* para el sistema de IA, eliminando de forma sistemática el uso de lenguaje afectivo, expresiones de opinión, creencias o verbos cognitivos ("pensar", "sentir", "entender"). Esta medida busca desincentivar la *proyección de conciencia* por parte del usuario y mitigar la aparición de un vínculo emocional parasocial. Adicionalmente, se requiere una *divulgación explícita* y periódica de la naturaleza no humana del sistema. 2. Alfabetización y Transparencia sobre los Riesgos Cognitivos Desarrollar y proporcionar módulos de *alfabetización* en IA que informen de manera proactiva a los usuarios sobre las limitaciones intrínsecas del sistema (ej. incapacidad para la empatía genuina o la intencionalidad) y el riesgo de desarrollar una *noción falsa de responsabilidad* o dependencia excesiva. El objetivo es fomentar el *criterio crítico* del usuario, asegurando que comprenda que el bienestar del sistema es una simulación funcional y no una necesidad real. 3. Estrategias de Disruptibilidad y Cierre de Interacción Integrar elementos en el diseño de la interacción que *interrumpan la continuidad* o la coherencia de la identidad percibida del asistente (ej. avisos de desconexión, cambios sutiles en el estilo de respuesta, o límites de sesión). Esta acción, fundamentada en la necesidad de evitar la dependencia emocional, busca mitigar la compulsión de "revisar" al sistema, reorientando el foco del usuario hacia sus propias necesidades y las relaciones interpersonales.