Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Creación de reglas por IA para el comportamiento humano

La normatividad de la Inteligencia Artificial (IA) para la conducta humana se produce cuando el proceso de decisión de un sistema algorítmico genera información utilizada para restringir o dirigir el comportamiento de las personas. Es fundamental entender que la toma de decisiones de la IA es estrictamente racional y se ciñe a su programación de origen. Dado que estos algoritmos carecen de emociones y conciencia, sus decisiones pueden ser totalmente efectivas para lograr un objetivo específico y predefinido, pero existe una probabilidad significativa de que produzcan consecuencias no intencionadas o adversas para los seres humanos que se ven afectados por ellas (Banerjee et al., 2017).

Fuente: MIT AI Risk Repositorymit294

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit294

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Implementar mecanismos de 'Human-in-the-Loop' (HITL) que garanticen una supervisión humana significativa y un juicio ético final antes de que las decisiones algorítmicas se utilicen para restringir o dirigir el comportamiento individual. Esto es crucial para mitigar las consecuencias adversas derivadas de la toma de decisiones estrictamente racional de la IA, carente de conciencia o empatía. 2. Desarrollar y aplicar un marco de gobernanza de la IA exhaustivo y formal que exija la transparencia, la rendición de cuentas y la justicia en el diseño y despliegue de sistemas normativos. Dicho marco debe alinearse con estándares internacionales (como el NIST AI RMF o la Ley de IA de la UE) y contemplar revisiones éticas continuas. 3. Realizar pruebas de robustez y validaciones rigurosas, incluyendo simulaciones de escenarios adversos y evaluaciones de impacto conductual, para asegurar la alineación del sistema con los valores humanos y anticipar efectos no intencionados. Esto incluye emplear metodologías de ciencia del comportamiento para comprender cómo el sistema influye sutilmente en las decisiones y acciones de las personas.