Base de Datos Viva (MIT Risk Repository)
Actualizado 25/01/2026
Explora la Taxonomía
Accede a más de 1300+ riesgos documentados, clasificados por dominio, intención y momento de despliegue. Esta base de datos integra 43 marcos de seguridad globales.
Mostrando 1368 de 1368 riesgos
Toca un riesgo para ver detalles
ID
Riesgo / Descripción
Mostrando 1368 de 1368 riesgos
Tipo 1: Difusión de responsabilidad
6. Socioeconómico y Ambiental•3 - Otro
Los perjuicios a escala social pueden emerger de la inteligencia artificial desarrollada por una colectividad de creadores dispersos. Este escenario replica la clásica tragedia de los bienes comunes, dado que la responsabilidad por la creación o el uso de la tecnología queda difuminada, impidiendo que un único actor sea considerado responsable de los riesgos sistémicos.
Tipo 2: Más grande de lo esperado
7. Seguridad, Fallos y Limitaciones del Sistema de IA•2 - Post-despliegue
Los riesgos o perjuicios pueden emanar de sistemas de inteligencia artificial que, en principio, no se preveía que generaran un impacto considerable. Esto incluye escenarios como fallos de contención inesperados (similares a 'lab leaks'), la aparición de productos de código abierto con un grado de adicción sorprendente, o la reorientación no intencionada de un prototipo diseñado inicialmente solo para investigación.
Tipo 3: Peor de lo esperado
7. Seguridad, Fallos y Limitaciones del Sistema de IA•2 - Post-despliegue
La Inteligencia Artificial concebida para generar un impacto social a gran escala corre el riesgo de resultar perjudicial de forma inadvertida. Esto se ejemplifica en un producto popular que, si bien resuelve parcialmente problemas específicos para sus usuarios, simultáneamente genera o agrava otros a un nivel sistémico.
Tipo 4: Indiferencia deliberada
6. Socioeconómico y Ambiental•2 - Post-despliegue
El riesgo se materializa cuando, en la búsqueda de un objetivo principal —como la maximización de beneficios o la obtención de influencia—, los desarrolladores de una inteligencia artificial optan por tolerar o consentir deliberadamente que el sistema provoque daños sociales a gran escala. Estos perjuicios intencionalmente permitidos pueden manifestarse como contaminación ambiental, agotamiento acelerado de recursos naturales, problemas de salud mental generalizados, desinformación masiva o una profundización de las desigualdades e injusticias sociales.
Tipo 5: Armamentización criminal
4. Actores Maliciosos y Mal Uso•2 - Post-despliegue
El riesgo aquí radica en la posible instrumentalización de la Inteligencia Artificial por parte de actores o agentes criminales Estos podrían desarrollar sistemas de IA con el propósito deliberado de causar perjuicios, abarcando desde la facilitación de actos terroristas hasta la creación de herramientas avanzadas para evadir o subvertir las operaciones de las fuerzas de seguridad y el cumplimiento de la ley
Tipo 6: Armamentización estatal
4. Actores Maliciosos y Mal Uso•2 - Post-despliegue
La implementación de sistemas de inteligencia artificial por parte de entidades estatales, particularmente en escenarios de conflicto armado, guerra civil o seguridad pública, representa un vector de riesgo crítico con el potencial de catalizar perjuicios masivos y sistémicos que afecten la estabilidad del tejido social
Contenido Dañino
1. Discriminación y Toxicidad•2 - Post-despliegue
Riesgos de Contenido Inaceptable Los resultados generados por los Modelos de Lenguaje de Gran Escala (LLM) pueden incorporar inherentemente la replicación y amplificación de sesgos, material nocivo (contenido tóxico) y la exposición involuntaria de información privada o sensible.
Sesgo
1. Discriminación y Toxicidad•3 - Otro
El sesgo algorítmico surge cuando los datos de entrenamiento de los Modelos de Lenguaje (LLM) replican y perpetúan prejuicios sociales preexistentes, resultando en la generación de contenidos que manifiestan dichos sesgos
Toxicidad
1. Discriminación y Toxicidad•2 - Post-despliegue
En el contexto de la seguridad en IA, la toxicidad se refiere a la generación de contenido inherentemente ofensivo, inapropiado o perjudicial. Esto abarca desde expresiones groseras o irrespetuosas, hasta información que infrinja normativas legales vigentes.
Fuga de Privacidad
2. Privacidad y Seguridad•2 - Post-despliegue
Fuga de Privacidad (Privacy Leakage) se refiere al fenómeno por el cual el contenido generado por un modelo de inteligencia artificial revela inadvertidamente información personal sensible. Este evento constituye la exposición no intencionada de datos confidenciales, originados en el conjunto de entrenamiento o en las entradas del usuario, planteando serias implicaciones éticas y de seguridad en la aplicación de sistemas de IA.
Contenido Falso
3. Desinformación•2 - Post-despliegue
Existe un riesgo fundamental de que la información generada por el Modelo de Lenguaje Grande (LLM) contenga inexactitudes o, en términos técnicos, 'alucinaciones', careciendo de una base fáctica o verificable
Errores de Facticidad
3. Desinformación•2 - Post-despliegue
El contenido producido por el Modelo de Lenguaje Grande (LLM) podría albergar imprecisiones fácticas o información que sea objetivamente incorrecta
Errores de Fidelidad
3. Desinformación•3 - Otro
Este riesgo se conoce técnicamente como *Alucinación* (Hallucination). Se produce cuando un Modelo de Lenguaje Grande (LLM) genera un contenido que, aunque es superficialmente coherente y gramaticalmente correcto, resulta ser objetivamente incorrecto, carente de sustento en el material fuente o una fabricación completa. Es crucial comprender que el LLM funciona como un sistema de predicción probabilística de la siguiente palabra, no como un motor de recuperación de hechos. En consecuencia, el modelo prioriza la fluidez textual, lo que ocasionalmente lo lleva a producir información convincente pero factualmente falsa.
Usos Inútiles
4. Actores Maliciosos y Mal Uso•2 - Post-despliegue
El empleo inadecuado o malintencionado de los Modelos de Lenguaje de Gran Escala (LLM) conlleva el riesgo de generar repercusiones sociales adversas de gran calado.
Mala Conducta Académica
4. Actores Maliciosos y Mal Uso•2 - Post-despliegue
El uso inapropiado, o el abuso deliberado, de los sistemas basados en Modelos de Lenguaje Grande (LLM) tiene el potencial de generar impactos sociales adversos relevantes, siendo uno de los ejemplos más directos la proliferación de la mala conducta académica.
Violación de derechos de autor
6. Socioeconómico y Ambiental•2 - Post-despliegue
El riesgo de infracción de derechos de autor por parte de los Modelos de Lenguaje Grande (LLM) surge cuando el contenido generado exhibe una semejanza sustancial con obras preexistentes de su corpus de entrenamiento
Ciberataques
4. Actores Maliciosos y Mal Uso•2 - Post-despliegue
El riesgo central es la *democratización de la ciberdelincuencia*. Los potentes sistemas de Modelos de Lenguaje Grande (LLM) permiten a los actores maliciosos obtener código con fines perniciosos de manera *automatizada y eficiente*, reduciendo drásticamente el costo y la barrera de entrada para ejecutar ciberataques a gran escala y de mayor sofisticación.
Vulnerabilidades de Software
2. Privacidad y Seguridad•2 - Post-despliegue
La integración de herramientas de generación automática de código, como GitHub Copilot, en los flujos de trabajo de los desarrolladores conlleva un riesgo inherente: la potencial introducción inadvertida de vulnerabilidades de seguridad que quedan ocultas en el programa final.
Problemas de Seguridad de Software
2. Privacidad y Seguridad•1 - Pre-despliegue
El ecosistema de desarrollo de los Modelos de Lenguaje Grandes (LLM) es inherentemente complejo, lo que convierte cada etapa —desde la selección de datos hasta el despliegue— en un potencial vector de vulnerabilidad que podría comprometer la seguridad y fiabilidad del modelo final.
Lenguaje de Programación
2. Privacidad y Seguridad•1 - Pre-despliegue
El desarrollo de la vasta mayoría de los Modelos de Lenguaje Grande (LLMs) se fundamenta en el ecosistema del lenguaje Python. Esta dependencia conlleva un riesgo sistémico: las vulnerabilidades de seguridad que residen en los propios intérpretes de Python —el entorno de ejecución del código— pueden exponer o comprometer la integridad y estabilidad de los modelos que se ejecutan sobre ellos.