Preguntas Frecuentes
Todo lo que necesitas saber sobre el Repositorio de Riesgos de Inteligencia Artificial, su metodología y cómo utilizar estos datos.
¿Qué es el Repositorio de Riesgos de IA?
El Repositorio de Riesgos de IA (AI Risk Repository) consta de tres partes fundamentales:
- Base de Datos de Riesgos: Captura más de 1400 riesgos extraídos de 43 marcos de trabajo y clasificaciones de riesgos de IA existentes.
- Taxonomía Causal: Clasifica cómo, cuándo y por qué ocurren estos riesgos.
- Taxonomía de Dominio: Clasifica estos riesgos en 7 dominios y 23 subdominios.
Este repositorio forma parte de la MIT AI Risk Initiative, cuyo objetivo es aumentar la concienciación y la adopción de mejores prácticas en la gestión de riesgos en todo el ecosistema de la Inteligencia Artificial.
¿Por qué el número de riesgos es menor que en el repositorio oficial del MIT?
Hemos realizado un proceso de curaduría para garantizar la fiabilidad de los datos. Si bien el repositorio original cuenta con más de 1.800 entradas, muchas de ellas son registros parciales o marcadores de posición. Para esta versión, hemos filtrado aquellos casos que:
- Carecen de información crítica: Eliminamos las entradas que no tenían descripción o cuyos datos eran insuficientes para entender el riesgo.
- Tienen metadatos incompletos: Excluimos aquellos riesgos donde campos estructurales clave como Entity, Intent, Timing o Domain figuraban como "Not coded" o "Excluded".
- Simplificación de campos: Omitimos columnas de gestión interna (QuickRef, Ev_ID, P.Def) que no aportaban valor directo para el análisis.
El resultado es un conjunto consolidado de 1.368 riesgos verificables y completos, listos para su consulta.
Para consultar la base de datos cruda original, puedes acceder a la copia de la hoja de cálculo original.
¿Cómo se hicieron las traducciones?
Las traducciones iniciales se realizaron con el apoyo de modelos de lenguaje avanzados y posteriormente fueron revisadas, normalizadas y contextualizadas por expertos para asegurar la consistencia terminológica y la fidelidad conceptual con la fuente original (MIT).
¿Has encontrado un error o una imprecisión? Por favor, repórtalo en nuestra página de contacto.
Mitigaciones generadas por IA
Las ideas de mitigación presentadas en este repositorio fueron generadas utilizando Modelos de Lenguaje Grande (LLMs). Debido a esto, existe un riesgo inherente de alucinaciones o imprecisiones.
Por favor, utiliza estas sugerencias con precaución y considéralas únicamente como ejemplos ilustrativos o puntos de partida, no como asesoramiento técnico definitivo.
Prompt utilizado para la generación:
Acceso a Datos y API para Desarrolladores
Creemos en la ciencia abierta. Ponemos a disposición la totalidad de nuestro dataset estructurado para investigadores, desarrolladores y constructores de herramientas.
Dataset Completo
Incluye identificadores únicos (ID), categorías, descripciones detalladas y metadatos de clasificación.
Acceder al Dataset (Google Sheets) →API Endpoint
Endpoint ligero para consumo programático, ideal para dashboards o aplicaciones educativas.
Acceder al Endpoint (JSON) →Taxonomías de Clasificación
1. Entidad (Entity)
- IA: Debido a una decisión o acción realizada por un sistema de IA.
- Humano: Debido a una decisión o acción realizada por humanos.
- Otro: Debido a alguna otra razón o causa ambigua.
2. Intención (Intent)
- Intencionado: Resultado esperado al perseguir un objetivo.
- No intencionado: Resultado inesperado al perseguir un objetivo.
- Otro: Sin especificar claramente la intencionalidad.
3. Momento (Timing)
- Pre-despliegue: Antes de que la IA sea desplegada (entrenamiento, diseño).
- Post-despliegue: Después de ponerse en funcionamiento.
- Otro: Sin momento claramente especificado.
Los 7 Dominios de Riesgo
1. Discriminación y Toxicidad
- • Discriminación injusta y tergiversación
- • Exposición a contenido tóxico
- • Rendimiento desigual entre grupos
2. Privacidad y Seguridad
- • Vulneración de la privacidad (filtración/inferencia)
- • Vulnerabilidades de seguridad y ataques
3. Desinformación
- • Información falsa o engañosa
- • Contaminación del ecosistema informativo
- • Pérdida de realidad consensuada
4. Actores Maliciosos
- • Desinformación y vigilancia a escala
- • Fraude, estafas y manipulación
- • Ciberataques y armas biológicas/químicas
5. Interacción Humano-Computadora
- • Dependencia excesiva (Overreliance)
- • Pérdida de agencia y autonomía humana
- • Uso inseguro
6. Socioeconómico y Ambiental
- • Centralización del poder
- • Aumento de desigualdad
- • Devaluación del trabajo humano
- • Daño ambiental
- • Fallo de gobernanza
7. Seguridad del Sistema y Fallos
- • IA persigue objetivos en conflicto con humanos
- • Capacidades peligrosas emergentes
- • Falta de robustez o transparencia
- • Riesgos multi-agente
¿Cómo utilizar el Repositorio?
Para Responsables de Políticas
- • Comprender el panorama de investigación.
- • Realizar evaluaciones de riesgo para informar decisiones.
- • Monitorear riesgos emergentes y asegurar supervisión.
- • Priorizar y planificar financiación.
Para Evaluadores de Riesgos
- • Identificar riesgos nuevos o no documentados.
- • Curar o crear evaluaciones relacionadas.
- • Determinar el alcance de auditorías.
Para la Industria
- • Realizar evaluaciones de riesgos internas.
- • Desarrollar estrategias de mitigación.
- • Capacitación interna de equipos.
Para Académicos
- • Encontrar áreas poco exploradas de investigación.
- • Desarrollar material educativo.
- • Comprender el panorama existente.
Metodología y Taxonomía
Cómo organizamos el caos: Una estructura científica para clasificar los riesgos de la Inteligencia Artificial basada en su naturaleza, impacto y nivel de abstracción.
La Metáfora Química
Al igual que la Tabla Periódica organiza los elementos según su peso atómico y reactividad química, la Tabla de Riesgos IA organiza las amenazas según su Naturaleza Técnica (Grupos verticales) y su Nivel de Complejidad (Periodos horizontales).
Clasificación por Grupos (Columnas)
Grupos 1-2: Los "Metales Reactivos" (Seguridad)
Capturan principalmente dinámicas de ciberseguridad y fallos técnicos. Estos riesgos suelen ser volátiles e inmediatos, y a menudo se activan por agentes externos.
Incluye categorías
Categorías principales
Grupos 3-12: Los "Metales de Transición" (Sistémicos)
Capturan principalmente dinámicas estructurales y sistémicas, con impacto acumulativo en el tiempo. Este grupo suele incluir efectos socioeconómicos, pero también otros dominios.
Incluye categorías
Categorías principales
También incluye
Grupos 13-17: Los "No Metales" (Ética y Sociedad)
Capturan principalmente dinámicas en la interfaz humano-sociedad-IA. Este grupo suele incluir sesgo, privacidad, manipulación y riesgos de derechos.
Incluye categorías
Categorías principales
También incluye
Grupo 18: Los "Gases Nobles" (Riesgos Existenciales)
Captura principalmente dinámicas existenciales y catastróficas. Son riesgos a menudo sistémicos y difíciles de detectar de forma temprana.
Incluye categorías
Categorías principales
Metodología: cómo se calcula la severidad
La severidad se calcula con una rúbrica ponderada v2 y explicable. Cada riesgo se puntúa en 5 factores (1-5) y luego se convierte a una escala de severidad de 1 a 10. También aplicamos calibración de continuidad para mantener estabilidad en el tiempo.
Fórmula
raw = 0.35*impacto + 0.20*escala + 0.20*irreversibilidad + 0.15*dificultadMitigacion + 0.10*tiempoAlDanio
severidad = round(clamp(1 + (raw - 1) * 2.25, 1, 10))
Factores y ponderaciones
- Impacto (35%): Qué tan grave es el daño.
- Escala (20%): A cuántas personas/sistemas puede afectar.
- Irreversibilidad (20%): Qué tan difícil es revertir el daño.
- Dificultad de mitigación (15%): Qué tan difícil es detectar/contener.
- Tiempo al daño (10%): Qué tan rápido puede materializarse el daño.
Las puntuaciones se calibran por línea base de categoría + dinámica de grupo (columnas) + ajustes de outliers específicos cuando corresponde.
La confianza (1-5) se muestra por separado para reflejar incertidumbre; no se multiplica dentro de la severidad.
Las fichas placeholder se excluyen de los análisis de severidad.
Recursos Educativos
¿Puedo descargar versiones imprimibles de los riesgos para talleres o clases?
¡Sí! Hemos creado un set completo de tarjetas en PDF, listo para imprimir, con los 118 riesgos.
Cada tarjeta ha sido diseñada para ser clara y visualmente atractiva, lo que las convierte en herramientas físicas ideales para la docencia, lluvias de ideas y sesiones colaborativas de mapeo de riesgos.
(Nota: El archivo es pesado; la descarga puede tardar unos instantes. Recomendamos imprimir en tamaño A6 o A5 sobre papel de alto gramaje o cartulina.)
5 Ideas para Talleres y Actividades en Clase
1. El "Draft" de Riesgos (Creación de Escenarios)
Objetivo: Entender las interdependencias de los riesgos.
Cómo: Divide a los participantes en equipos de 3-4. Dales un producto de IA ficticio (ej. "Chatbot de salud mental").
Actividad: Cada equipo "draftea" (elige) las 5 tarjetas de riesgo que consideran más críticas para ese producto específico. Deben presentar su "mano" y justificar por qué esos riesgos son primordiales y cómo podrían interactuar entre sí.
2. "Póker de Mitigación" (Lluvia de Soluciones)
Objetivo: Cambiar el enfoque de los problemas a las soluciones.
Cómo: Coloca una tarjeta de riesgo en el centro de la mesa (ej. "Envenenamiento de Datos").
Actividad: Los participantes tienen 5 minutos para escribir una estrategia concreta de mitigación (técnica o política) en una nota adhesiva. Las colocan boca abajo. Se revelan simultáneamente. El grupo vota por la solución más robusta y realista. El ganador se queda la tarjeta como un "punto".
3. Mapeo "Pre-Mortem"
Objetivo: Visualizar rutas de fallo del sistema.
Cómo: Usa una pizarra grande o pared. Dibuja una línea de tiempo desde "Recolección de Datos" hasta "Despliegue".
Actividad: Da a los participantes un puñado de tarjetas. Pídeles que peguen físicamente las tarjetas en la línea de tiempo donde es más probable que se origine ese riesgo específico. Esto crea un mapa de calor visual de dónde es más vulnerable la tubería del proyecto.
4. Debate "Red Team vs. Blue Team"
Objetivo: Pensamiento crítico y mentalidad adversaria.
Cómo: Selecciona una tarjeta controvertida (ej. "Guerra Automatizada"). Divide la sala en dos grupos.
Actividad: Equipo Rojo: Tiene 10 minutos para construir la narrativa del "peor escenario posible" usando esa tarjeta. Equipo Azul: Tiene 10 minutos para proponer un marco de gobernanza para prevenir ese escenario específico. Presentan sus argumentos, seguidos de un Q&A moderado.
5. Clasificación de Dominios
Objetivo: Familiaridad con los dominios de la taxonomía (Privacidad, Seguridad, etc.).
Cómo: Baraja un subconjunto de 50 tarjetas.
Actividad: Reta a pequeños grupos a clasificar las tarjetas en sus categorías de alto nivel correctas (ej. "Interacción Humano-Computadora", "Impacto Socioeconómico") lo más rápido posible sin mirar la codificación de color en el frente. Esto les obliga a leer las definiciones y entender los conceptos subyacentes del dominio.
Uso de AI en el Observatorio
En el Observatorio de Seguridad, utilizamos la API de Gemini para analizar el paper original. Infiere la categoría y genera un resumen simplificado (ELI5) para hacer el contenido más accesible a una audiencia más amplia.