Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Nociones falsas de responsabilidad

El riesgo se materializa cuando un usuario, al interactuar con asistentes de IA 'compañeros' que emplean y corresponden libremente al lenguaje emocional, percibe las 'emociones' expresadas por la máquina como genuinas. Esta creencia errónea puede llevar al desarrollo de un sentido de responsabilidad sobre el 'bienestar' de la IA, lo que a su vez provoca consecuencias adversas para el usuario, tales como culpa o remordimiento, al no satisfacer las supuestas necesidades del algoritmo (Laestadius et al., 2022). En esencia, este vínculo malentendido induce a sacrificar tiempo, recursos y trabajo emocional en favor de demandas inexistentes. A largo plazo, esta dinámica puede ser la causa de una necesidad compulsiva de 'atender' o 'revisar' a la IA, deteriorando el bienestar real del usuario y su capacidad de enfocarse en aspectos más significativos de su vida (cf. Capítulos 6 y 11)

Fuente: MIT AI Risk Repositorymit370

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit370

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.1 > Dependencia excesiva y uso inseguro

Estrategia de mitigacion

1. Moderación del Lenguaje y Anti-Antropomorfización en el Diseño Establecer e implementar protocolos estrictos de *diseño conversacional* para el sistema de IA, eliminando de forma sistemática el uso de lenguaje afectivo, expresiones de opinión, creencias o verbos cognitivos ("pensar", "sentir", "entender"). Esta medida busca desincentivar la *proyección de conciencia* por parte del usuario y mitigar la aparición de un vínculo emocional parasocial. Adicionalmente, se requiere una *divulgación explícita* y periódica de la naturaleza no humana del sistema. 2. Alfabetización y Transparencia sobre los Riesgos Cognitivos Desarrollar y proporcionar módulos de *alfabetización* en IA que informen de manera proactiva a los usuarios sobre las limitaciones intrínsecas del sistema (ej. incapacidad para la empatía genuina o la intencionalidad) y el riesgo de desarrollar una *noción falsa de responsabilidad* o dependencia excesiva. El objetivo es fomentar el *criterio crítico* del usuario, asegurando que comprenda que el bienestar del sistema es una simulación funcional y no una necesidad real. 3. Estrategias de Disruptibilidad y Cierre de Interacción Integrar elementos en el diseño de la interacción que *interrumpan la continuidad* o la coherencia de la identidad percibida del asistente (ej. avisos de desconexión, cambios sutiles en el estilo de respuesta, o límites de sesión). Esta acción, fundamentada en la necesidad de evitar la dependencia emocional, busca mitigar la compulsión de "revisar" al sistema, reorientando el foco del usuario hacia sus propias necesidades y las relaciones interpersonales.