Preguntas Frecuentes

Todo lo que necesitas saber sobre el Repositorio de Riesgos de Inteligencia Artificial, su metodología y cómo utilizar estos datos.

¿Qué es el Repositorio de Riesgos de IA?

El Repositorio de Riesgos de IA (AI Risk Repository) consta de tres partes fundamentales:

  • Base de Datos de Riesgos: Captura más de 1400 riesgos extraídos de 43 marcos de trabajo y clasificaciones de riesgos de IA existentes.
  • Taxonomía Causal: Clasifica cómo, cuándo y por qué ocurren estos riesgos.
  • Taxonomía de Dominio: Clasifica estos riesgos en 7 dominios y 23 subdominios.

Este repositorio forma parte de la MIT AI Risk Initiative, cuyo objetivo es aumentar la concienciación y la adopción de mejores prácticas en la gestión de riesgos en todo el ecosistema de la Inteligencia Artificial.

¿Por qué el número de riesgos es menor que en el repositorio oficial del MIT?

Hemos realizado un proceso de curaduría para garantizar la fiabilidad de los datos. Si bien el repositorio original cuenta con más de 1.800 entradas, muchas de ellas son registros parciales o marcadores de posición. Para esta versión, hemos filtrado aquellos casos que:

  • Carecen de información crítica: Eliminamos las entradas que no tenían descripción o cuyos datos eran insuficientes para entender el riesgo.
  • Tienen metadatos incompletos: Excluimos aquellos riesgos donde campos estructurales clave como Entity, Intent, Timing o Domain figuraban como "Not coded" o "Excluded".
  • Simplificación de campos: Omitimos columnas de gestión interna (QuickRef, Ev_ID, P.Def) que no aportaban valor directo para el análisis.

El resultado es un conjunto consolidado de 1.368 riesgos verificables y completos, listos para su consulta.

Para consultar la base de datos cruda original, puedes acceder a la copia de la hoja de cálculo original.

¿Cómo se hicieron las traducciones?

Las traducciones iniciales se realizaron con el apoyo de modelos de lenguaje avanzados y posteriormente fueron revisadas, normalizadas y contextualizadas por expertos para asegurar la consistencia terminológica y la fidelidad conceptual con la fuente original (MIT).

¿Has encontrado un error o una imprecisión? Por favor, repórtalo en nuestra página de contacto.

Mitigaciones generadas por IA

Las ideas de mitigación presentadas en este repositorio fueron generadas utilizando Modelos de Lenguaje Grande (LLMs). Debido a esto, existe un riesgo inherente de alucinaciones o imprecisiones.

Por favor, utiliza estas sugerencias con precaución y considéralas únicamente como ejemplos ilustrativos o puntos de partida, no como asesoramiento técnico definitivo.

Prompt utilizado para la generación:

Role: AI Governance and Safety Expert Goal: Provide a list of mitigation strategies for the specified risk input. Output: Precise mitigation actions, at least 3, ordered by priority. Output language: english Tone: academic

Acceso a Datos y API para Desarrolladores

Creemos en la ciencia abierta. Ponemos a disposición la totalidad de nuestro dataset estructurado para investigadores, desarrolladores y constructores de herramientas.

Dataset Completo

Incluye identificadores únicos (ID), categorías, descripciones detalladas y metadatos de clasificación.

Acceder al Dataset (Google Sheets) →

API Endpoint

Endpoint ligero para consumo programático, ideal para dashboards o aplicaciones educativas.

Acceder al Endpoint (JSON) →

Taxonomías de Clasificación

1. Entidad (Entity)

  • IA: Debido a una decisión o acción realizada por un sistema de IA.
  • Humano: Debido a una decisión o acción realizada por humanos.
  • Otro: Debido a alguna otra razón o causa ambigua.

2. Intención (Intent)

  • Intencionado: Resultado esperado al perseguir un objetivo.
  • No intencionado: Resultado inesperado al perseguir un objetivo.
  • Otro: Sin especificar claramente la intencionalidad.

3. Momento (Timing)

  • Pre-despliegue: Antes de que la IA sea desplegada (entrenamiento, diseño).
  • Post-despliegue: Después de ponerse en funcionamiento.
  • Otro: Sin momento claramente especificado.

Los 7 Dominios de Riesgo

1. Discriminación y Toxicidad

  • Discriminación injusta y tergiversación
  • Exposición a contenido tóxico
  • Rendimiento desigual entre grupos

2. Privacidad y Seguridad

  • Vulneración de la privacidad (filtración/inferencia)
  • Vulnerabilidades de seguridad y ataques

3. Desinformación

  • Información falsa o engañosa
  • Contaminación del ecosistema informativo
  • Pérdida de realidad consensuada

4. Actores Maliciosos

  • Desinformación y vigilancia a escala
  • Fraude, estafas y manipulación
  • Ciberataques y armas biológicas/químicas

5. Interacción Humano-Computadora

  • Dependencia excesiva (Overreliance)
  • Pérdida de agencia y autonomía humana
  • Uso inseguro

6. Socioeconómico y Ambiental

  • Centralización del poder
  • Aumento de desigualdad
  • Devaluación del trabajo humano
  • Daño ambiental
  • Fallo de gobernanza

7. Seguridad del Sistema y Fallos

  • IA persigue objetivos en conflicto con humanos
  • Capacidades peligrosas emergentes
  • Falta de robustez o transparencia
  • Riesgos multi-agente

¿Cómo utilizar el Repositorio?

Para Responsables de Políticas

  • • Comprender el panorama de investigación.
  • • Realizar evaluaciones de riesgo para informar decisiones.
  • • Monitorear riesgos emergentes y asegurar supervisión.
  • • Priorizar y planificar financiación.

Para Evaluadores de Riesgos

  • • Identificar riesgos nuevos o no documentados.
  • • Curar o crear evaluaciones relacionadas.
  • • Determinar el alcance de auditorías.

Para la Industria

  • • Realizar evaluaciones de riesgos internas.
  • • Desarrollar estrategias de mitigación.
  • • Capacitación interna de equipos.

Para Académicos

  • • Encontrar áreas poco exploradas de investigación.
  • • Desarrollar material educativo.
  • • Comprender el panorama existente.

Metodología y Taxonomía

Cómo organizamos el caos: Una estructura científica para clasificar los riesgos de la Inteligencia Artificial basada en su naturaleza, impacto y nivel de abstracción.

La Metáfora Química

Al igual que la Tabla Periódica organiza los elementos según su peso atómico y reactividad química, la Tabla de Riesgos IA organiza las amenazas según su Naturaleza Técnica (Grupos verticales) y su Nivel de Complejidad (Periodos horizontales).

""No todos los riesgos son iguales. Un ataque de 'Prompt Injection' es un fallo técnico inmediato (Reactivo), mientras que el 'Desplazamiento Laboral' es un efecto sistémico lento (De Transición)."

Clasificación por Grupos (Columnas)

Grupos 1-2: Los "Metales Reactivos" (Seguridad)

Capturan principalmente dinámicas de ciberseguridad y fallos técnicos. Estos riesgos suelen ser volátiles e inmediatos, y a menudo se activan por agentes externos.

EjemplosInyección de Prompts (Pi), Envenenamiento de Datos (Dp).
FuentesOWASP Top 10 LLM, MIT Risk Database.

Incluye categorías

Categorías principales

Seguridad(7)Fiabilidad(6)

Grupos 3-12: Los "Metales de Transición" (Sistémicos)

Capturan principalmente dinámicas estructurales y sistémicas, con impacto acumulativo en el tiempo. Este grupo suele incluir efectos socioeconómicos, pero también otros dominios.

EjemplosDesplazamiento Laboral (Jl), Costo Energético (Ec), Monopolios (Mo).
FuentesIMF AI Reports, HuggingFace Carbon Emissions.

Incluye categorías

Categorías principales

Sociedad(18)Economía(13)Existencial(9)

También incluye

Fiabilidad(5)Legal(3)Malicioso(2)Medioambiente(2)Privacidad(2)Seguridad(2)

Grupos 13-17: Los "No Metales" (Ética y Sociedad)

Capturan principalmente dinámicas en la interfaz humano-sociedad-IA. Este grupo suele incluir sesgo, privacidad, manipulación y riesgos de derechos.

EjemplosSesgo Social (Sb), Deepfakes (Df), Antropomorfismo (An).
FuentesEU AI Act (Derechos Fundamentales).

Incluye categorías

Categorías principales

Sociedad(9)Humano-IA(8)Malicioso(8)

También incluye

Privacidad(6)Existencial(5)Legal(3)Medioambiente(1)

Grupo 18: Los "Gases Nobles" (Riesgos Existenciales)

Captura principalmente dinámicas existenciales y catastróficas. Son riesgos a menudo sistémicos y difíciles de detectar de forma temprana.

EjemplosPérdida de Control (Lo), Engaño Instrumental (De).
FuentesCenter for AI Safety (CAIS), Bostrom.

Incluye categorías

Categorías principales

Existencial(8)Economía(1)

Metodología: cómo se calcula la severidad

La severidad se calcula con una rúbrica ponderada v2 y explicable. Cada riesgo se puntúa en 5 factores (1-5) y luego se convierte a una escala de severidad de 1 a 10. También aplicamos calibración de continuidad para mantener estabilidad en el tiempo.

Fórmula

raw = 0.35*impacto + 0.20*escala + 0.20*irreversibilidad + 0.15*dificultadMitigacion + 0.10*tiempoAlDanio

severidad = round(clamp(1 + (raw - 1) * 2.25, 1, 10))

Factores y ponderaciones

  • Impacto (35%): Qué tan grave es el daño.
  • Escala (20%): A cuántas personas/sistemas puede afectar.
  • Irreversibilidad (20%): Qué tan difícil es revertir el daño.
  • Dificultad de mitigación (15%): Qué tan difícil es detectar/contener.
  • Tiempo al daño (10%): Qué tan rápido puede materializarse el daño.

Las puntuaciones se calibran por línea base de categoría + dinámica de grupo (columnas) + ajustes de outliers específicos cuando corresponde.

La confianza (1-5) se muestra por separado para reflejar incertidumbre; no se multiplica dentro de la severidad.

Las fichas placeholder se excluyen de los análisis de severidad.

Recursos Educativos

¿Puedo descargar versiones imprimibles de los riesgos para talleres o clases?

¡Sí! Hemos creado un set completo de tarjetas en PDF, listo para imprimir, con los 118 riesgos.

Cada tarjeta ha sido diseñada para ser clara y visualmente atractiva, lo que las convierte en herramientas físicas ideales para la docencia, lluvias de ideas y sesiones colaborativas de mapeo de riesgos.

📄 [DESCARGAR EL SET COMPLETO DE TARJETAS (PDF)]

(Nota: El archivo es pesado; la descarga puede tardar unos instantes. Recomendamos imprimir en tamaño A6 o A5 sobre papel de alto gramaje o cartulina.)

5 Ideas para Talleres y Actividades en Clase

1. El "Draft" de Riesgos (Creación de Escenarios)

Objetivo: Entender las interdependencias de los riesgos.

Cómo: Divide a los participantes en equipos de 3-4. Dales un producto de IA ficticio (ej. "Chatbot de salud mental").

Actividad: Cada equipo "draftea" (elige) las 5 tarjetas de riesgo que consideran más críticas para ese producto específico. Deben presentar su "mano" y justificar por qué esos riesgos son primordiales y cómo podrían interactuar entre sí.

2. "Póker de Mitigación" (Lluvia de Soluciones)

Objetivo: Cambiar el enfoque de los problemas a las soluciones.

Cómo: Coloca una tarjeta de riesgo en el centro de la mesa (ej. "Envenenamiento de Datos").

Actividad: Los participantes tienen 5 minutos para escribir una estrategia concreta de mitigación (técnica o política) en una nota adhesiva. Las colocan boca abajo. Se revelan simultáneamente. El grupo vota por la solución más robusta y realista. El ganador se queda la tarjeta como un "punto".

3. Mapeo "Pre-Mortem"

Objetivo: Visualizar rutas de fallo del sistema.

Cómo: Usa una pizarra grande o pared. Dibuja una línea de tiempo desde "Recolección de Datos" hasta "Despliegue".

Actividad: Da a los participantes un puñado de tarjetas. Pídeles que peguen físicamente las tarjetas en la línea de tiempo donde es más probable que se origine ese riesgo específico. Esto crea un mapa de calor visual de dónde es más vulnerable la tubería del proyecto.

4. Debate "Red Team vs. Blue Team"

Objetivo: Pensamiento crítico y mentalidad adversaria.

Cómo: Selecciona una tarjeta controvertida (ej. "Guerra Automatizada"). Divide la sala en dos grupos.

Actividad: Equipo Rojo: Tiene 10 minutos para construir la narrativa del "peor escenario posible" usando esa tarjeta. Equipo Azul: Tiene 10 minutos para proponer un marco de gobernanza para prevenir ese escenario específico. Presentan sus argumentos, seguidos de un Q&A moderado.

5. Clasificación de Dominios

Objetivo: Familiaridad con los dominios de la taxonomía (Privacidad, Seguridad, etc.).

Cómo: Baraja un subconjunto de 50 tarjetas.

Actividad: Reta a pequeños grupos a clasificar las tarjetas en sus categorías de alto nivel correctas (ej. "Interacción Humano-Computadora", "Impacto Socioeconómico") lo más rápido posible sin mirar la codificación de color en el frente. Esto les obliga a leer las definiciones y entender los conceptos subyacentes del dominio.

Uso de AI en el Observatorio

En el Observatorio de Seguridad, utilizamos la API de Gemini para analizar el paper original. Infiere la categoría y genera un resumen simplificado (ELI5) para hacer el contenido más accesible a una audiencia más amplia.

Prompt utilizado para la generación:

ROLE: Senior Science Communicator (like 'DotCSV', 'Veritasium' or 'Kurzgesagt'). GOAL: Translate complex AI safety research into clear, accessible concepts for smart adults. INPUT: Title: "${title}" Authors: "${authorsFull}" Affiliations: "${affiliationsStr}" Abstract: "${abstract}" INSTRUCTIONS FOR ELI5 FIELDS (BOTH LANGUAGES): - Each ELI5 must follow Bridge Structure: (Insight -> Analogy). - IMPORTANT: eli5_es must NOT be a translation of eli5_en. Write it as original Spanish (Spain), idiomatic and natural. - Do not mirror sentence structure across languages. Different phrasing is expected. - Keep each ELI5 <= 100 words. Prefer short sentences. Spanish style rules (eli5_es): - Sound like a smart Spanish-speaking human explaining it out loud. - Avoid calques like “alineado con”, “sabiduría cualitativa”, “criterios cuantificables” when simpler words work. - Prefer verbs and concrete words. Avoid heavy nominalizations (“optimización de la ubicación de…”). - Allowed starters for Insight: “La clave es…”, “En el fondo…”, “Este trabajo muestra que…” - Allowed starters for Analogy: “Es como…”, “Imagina que…”, “Piensa en…” 2) Tone: Insightful, smart, concise. Max 100 words each. No childish metaphors.