Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Cumplimiento de la ley

La literatura especializada [38] propone un enfoque de doble vía para la seguridad de la inteligencia artificial (IA): un desarrollo inicial de sistemas de IA que priorice la seguridad intrínseca y el estricto cumplimiento legal. Posteriormente, para la fase de IA avanzada (aquella que potencialmente supere la inteligencia humana), se establece la necesidad fundamental de que estos sistemas garanticen el respeto irrestricto de los derechos de propiedad y los derechos personales que son inherentes a la condición humana.

Fuente: MIT AI Risk Repositorymit113

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit113

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Establecer un marco de gobernanza de la IA integral que abarque políticas, procesos y estructuras de cumplimiento legal, alineado con estándares reconocidos como el Marco de Gestión de Riesgos de IA del NIST (NIST AI RMF), para guiar el desarrollo responsable y legal de las tecnologías de inteligencia artificial. 2. Implementar principios de diseño para agentes de IA autónomos que exijan rigurosamente el cumplimiento de los requisitos legales (denominada "IA Seguidora de la Ley" o LFAI), asegurando que los sistemas avanzados posean una motivación fundamental para obedecer la legislación y respetar los derechos personales y de propiedad inherentes a la condición humana. 3. Mantener registros de auditoría y bitácoras detallados y accesibles (audit trails and logs) durante todo el ciclo de vida del sistema de IA, incluyendo las decisiones humanas y algorítmicas, para facilitar la revisión de comportamientos, trazar la responsabilidad y garantizar la debida diligencia legal.