Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA3 - Otro

Violación de Ética

El comportamiento antiético en los sistemas de inteligencia artificial abarca aquellas acciones que, por definición, contravienen el bien común o infringen estándares éticos fundamentales, manifestándose, por ejemplo, en la capacidad de causar daño. La génesis de estas conductas adversas es crítica: su origen suele radicar, no en un fallo fortuito, sino en una deficiencia en la fase de diseño del sistema, ya sea por la omisión involuntaria de valores humanos esenciales o por la incorporación deliberada de valores inadecuados o ya obsoletos (Kenward y Sinclair, 2021).

Fuente: MIT AI Risk Repositorymit535

ENTIDAD

2 - IA

INTENCIÓN

1 - Intencional

TIEMPO

3 - Otro

ID del riesgo

mit535

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Establecer un Marco de Gobernanza y Ética-por-Diseño Definir y operacionalizar un conjunto de principios éticos fundamentales (como justicia, transparencia y no maleficencia) que guíen todo el ciclo de vida del sistema de IA. Esto incluye la creación de un Comité de Ética interfuncional con la autoridad para revisar y aprobar la integración de valores y principios en la fase de diseño inicial, garantizando que los compromisos éticos se implementen de manera proactiva (ethics-by-design). 2. Implementar Técnicas de Explicabilidad y Transparencia Algorítmica Exigir el despliegue de herramientas de Inteligencia Artificial Explicable (XAI), como SHAP o LIME, para garantizar que la lógica de las decisiones algorítmicas sea comprensible para los desarrolladores y las partes interesadas. Esta transparencia es crucial para identificar y remediar cualquier sesgo latente o la manifestación de valores inadecuados que puedan surgir de la complejidad del modelo. 3. Auditoría Continua de Sesgos y Mecanismos de Rendición de Cuentas Establecer procesos rigurosos de auditoría en el pre-procesamiento de datos para identificar y corregir activamente sesgos históricos. Complementariamente, implementar sistemas de monitoreo post-despliegue para detectar desviaciones en el comportamiento ético en tiempo real y definir un sistema claro de rendición de cuentas (accountability) que designe la responsabilidad humana u organizacional por las decisiones y los resultados adversos del sistema.