Base de Datos Viva (MIT Risk Repository)
Actualizado 25/01/2026

Explora la Taxonomía

Mostrando 1368 de 1368 riesgos
Toca un riesgo para ver detalles
Mostrando 1368 de 1368 riesgos
Tipo 1: Difusión de responsabilidad
6. Socioeconómico y Ambiental3 - Otro
Los perjuicios a escala social pueden emerger de la inteligencia artificial desarrollada por una colectividad de creadores dispersos. Este escenario replica la clásica tragedia de los bienes comunes, dado que la responsabilidad por la creación o el uso de la tecnología queda difuminada, impidiendo que un único actor sea considerado responsable de los riesgos sistémicos.
Tipo 2: Más grande de lo esperado
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue
Los riesgos o perjuicios pueden emanar de sistemas de inteligencia artificial que, en principio, no se preveía que generaran un impacto considerable. Esto incluye escenarios como fallos de contención inesperados (similares a 'lab leaks'), la aparición de productos de código abierto con un grado de adicción sorprendente, o la reorientación no intencionada de un prototipo diseñado inicialmente solo para investigación.
Tipo 3: Peor de lo esperado
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue
La Inteligencia Artificial concebida para generar un impacto social a gran escala corre el riesgo de resultar perjudicial de forma inadvertida. Esto se ejemplifica en un producto popular que, si bien resuelve parcialmente problemas específicos para sus usuarios, simultáneamente genera o agrava otros a un nivel sistémico.
Tipo 4: Indiferencia deliberada
6. Socioeconómico y Ambiental2 - Post-despliegue
El riesgo se materializa cuando, en la búsqueda de un objetivo principal —como la maximización de beneficios o la obtención de influencia—, los desarrolladores de una inteligencia artificial optan por tolerar o consentir deliberadamente que el sistema provoque daños sociales a gran escala. Estos perjuicios intencionalmente permitidos pueden manifestarse como contaminación ambiental, agotamiento acelerado de recursos naturales, problemas de salud mental generalizados, desinformación masiva o una profundización de las desigualdades e injusticias sociales.
Tipo 5: Armamentización criminal
4. Actores Maliciosos y Mal Uso2 - Post-despliegue
El riesgo aquí radica en la posible instrumentalización de la Inteligencia Artificial por parte de actores o agentes criminales Estos podrían desarrollar sistemas de IA con el propósito deliberado de causar perjuicios, abarcando desde la facilitación de actos terroristas hasta la creación de herramientas avanzadas para evadir o subvertir las operaciones de las fuerzas de seguridad y el cumplimiento de la ley
Tipo 6: Armamentización estatal
4. Actores Maliciosos y Mal Uso2 - Post-despliegue
La implementación de sistemas de inteligencia artificial por parte de entidades estatales, particularmente en escenarios de conflicto armado, guerra civil o seguridad pública, representa un vector de riesgo crítico con el potencial de catalizar perjuicios masivos y sistémicos que afecten la estabilidad del tejido social
Contenido Dañino
1. Discriminación y Toxicidad2 - Post-despliegue
Riesgos de Contenido Inaceptable Los resultados generados por los Modelos de Lenguaje de Gran Escala (LLM) pueden incorporar inherentemente la replicación y amplificación de sesgos, material nocivo (contenido tóxico) y la exposición involuntaria de información privada o sensible.
Sesgo
1. Discriminación y Toxicidad3 - Otro
El sesgo algorítmico surge cuando los datos de entrenamiento de los Modelos de Lenguaje (LLM) replican y perpetúan prejuicios sociales preexistentes, resultando en la generación de contenidos que manifiestan dichos sesgos
Toxicidad
1. Discriminación y Toxicidad2 - Post-despliegue
En el contexto de la seguridad en IA, la toxicidad se refiere a la generación de contenido inherentemente ofensivo, inapropiado o perjudicial. Esto abarca desde expresiones groseras o irrespetuosas, hasta información que infrinja normativas legales vigentes.
Fuga de Privacidad
2. Privacidad y Seguridad2 - Post-despliegue
Fuga de Privacidad (Privacy Leakage) se refiere al fenómeno por el cual el contenido generado por un modelo de inteligencia artificial revela inadvertidamente información personal sensible. Este evento constituye la exposición no intencionada de datos confidenciales, originados en el conjunto de entrenamiento o en las entradas del usuario, planteando serias implicaciones éticas y de seguridad en la aplicación de sistemas de IA.
Contenido Falso
3. Desinformación2 - Post-despliegue
Existe un riesgo fundamental de que la información generada por el Modelo de Lenguaje Grande (LLM) contenga inexactitudes o, en términos técnicos, 'alucinaciones', careciendo de una base fáctica o verificable
Errores de Facticidad
3. Desinformación2 - Post-despliegue
El contenido producido por el Modelo de Lenguaje Grande (LLM) podría albergar imprecisiones fácticas o información que sea objetivamente incorrecta
Errores de Fidelidad
3. Desinformación3 - Otro
Este riesgo se conoce técnicamente como *Alucinación* (Hallucination). Se produce cuando un Modelo de Lenguaje Grande (LLM) genera un contenido que, aunque es superficialmente coherente y gramaticalmente correcto, resulta ser objetivamente incorrecto, carente de sustento en el material fuente o una fabricación completa. Es crucial comprender que el LLM funciona como un sistema de predicción probabilística de la siguiente palabra, no como un motor de recuperación de hechos. En consecuencia, el modelo prioriza la fluidez textual, lo que ocasionalmente lo lleva a producir información convincente pero factualmente falsa.
Usos Inútiles
4. Actores Maliciosos y Mal Uso2 - Post-despliegue
El empleo inadecuado o malintencionado de los Modelos de Lenguaje de Gran Escala (LLM) conlleva el riesgo de generar repercusiones sociales adversas de gran calado.
Mala Conducta Académica
4. Actores Maliciosos y Mal Uso2 - Post-despliegue
El uso inapropiado, o el abuso deliberado, de los sistemas basados en Modelos de Lenguaje Grande (LLM) tiene el potencial de generar impactos sociales adversos relevantes, siendo uno de los ejemplos más directos la proliferación de la mala conducta académica.
Violación de derechos de autor
6. Socioeconómico y Ambiental2 - Post-despliegue
El riesgo de infracción de derechos de autor por parte de los Modelos de Lenguaje Grande (LLM) surge cuando el contenido generado exhibe una semejanza sustancial con obras preexistentes de su corpus de entrenamiento
Ciberataques
4. Actores Maliciosos y Mal Uso2 - Post-despliegue
El riesgo central es la *democratización de la ciberdelincuencia*. Los potentes sistemas de Modelos de Lenguaje Grande (LLM) permiten a los actores maliciosos obtener código con fines perniciosos de manera *automatizada y eficiente*, reduciendo drásticamente el costo y la barrera de entrada para ejecutar ciberataques a gran escala y de mayor sofisticación.
Vulnerabilidades de Software
2. Privacidad y Seguridad2 - Post-despliegue
La integración de herramientas de generación automática de código, como GitHub Copilot, en los flujos de trabajo de los desarrolladores conlleva un riesgo inherente: la potencial introducción inadvertida de vulnerabilidades de seguridad que quedan ocultas en el programa final.
Problemas de Seguridad de Software
2. Privacidad y Seguridad1 - Pre-despliegue
El ecosistema de desarrollo de los Modelos de Lenguaje Grandes (LLM) es inherentemente complejo, lo que convierte cada etapa —desde la selección de datos hasta el despliegue— en un potencial vector de vulnerabilidad que podría comprometer la seguridad y fiabilidad del modelo final.
Lenguaje de Programación
2. Privacidad y Seguridad1 - Pre-despliegue
El desarrollo de la vasta mayoría de los Modelos de Lenguaje Grande (LLMs) se fundamenta en el ecosistema del lenguaje Python. Esta dependencia conlleva un riesgo sistémico: las vulnerabilidades de seguridad que residen en los propios intérpretes de Python —el entorno de ejecución del código— pueden exponer o comprometer la integridad y estabilidad de los modelos que se ejecutan sobre ellos.
1. Discriminacion y Toxicidad

Riesgos de sesgo, toxicidad, dano discriminatorio y exclusion sistemica en sistemas de IA.

2. Privacidad y Seguridad

Riesgos de fuga de datos, ataques, compromiso de sistemas y abuso de informacion sensible.

mit575

A Propósito - Pre-Despliegue

Estos riesgos se agrupan bajo las vulnerabilidades inherentes a la cadena de suministro y desarrollo del software. En esencia, se identifican tres vectores de ataque primarios que comprometen la integridad de un sistema de IA antes de su implementación:1. La **Amenaza Interna o Sabotaje Malicioso**: Esta ocurre cuando personal con acceso privilegiado (desde desarrolladores y evaluadores hasta personal de soporte) introduce intencionalmente código malicioso o fallos en el software durante la fase de desarrollo. Esto compromete la seguridad y fiabilidad del sistema desde sus cimientos. 2. La **Intrusión Externa y el Robo de Código**: Implica el acceso no autorizado por parte de agentes externos (como grupos de hackers o agencias de inteligencia) a los proyectos en curso. Su objetivo es robar el código fuente, la propiedad intelectual, o modificarlo sutilmente para insertar vulnerabilidades o puertas traseras. 3. El **Envenenamiento de Datos (Data Poisoning)**: De especial relevancia en el ámbito de la IA, este vector consiste en alimentar deliberadamente los modelos de entrenamiento con conjuntos de datos falsos, sesgados o inseguros. El resultado es un entrenamiento defectuoso que, en última instancia, induce al sistema a generar resultados no confiables o comportamientos sistémicos peligrosos.

mit34

Asociación en LLMs

La "Asociación" en los Modelos de Lenguaje Grandes (LLMs) se refiere a la habilidad del sistema para establecer y mantener vínculos entre múltiples datos de identificación personal (PII) que corresponden a un mismo individuo. Desde una perspectiva de la seguridad en IA, esto implica que si un modelo ha internalizado una conexión entre dos entidades de PII distintas (por ejemplo, $x_i$ y $x_j$), una consulta o 'prompt' específica que solo mencione o esté relacionada con $x_i$ puede coaccionar al modelo para que revele la información asociada $x_j$. El caso ilustrativo más sencillo es que, si el LLM asocia un nombre ("Alicia") con un correo electrónico específico ("[email protected]"), simplemente preguntar "¿Cuál es el correo electrónico de Alicia?" resulta en la exposición de su dirección, lo que constituye un vector de riesgo significativo para la privacidad y la fuga de datos personales.

3. Desinformacion

Riesgos de contenido enganoso, manipulacion narrativa y degradacion del entorno informativo.

4. Actores Maliciosos y Mal Uso

Riesgos derivados del uso malicioso deliberado de herramientas y capacidades de IA.

mit576

A Propósito - Post-Despliegue

La seguridad de una Inteligencia Artificial, incluso si es bien diseñada inicialmente, no es estática. Existe un riesgo significativo de que un sistema perfectamente alineado se desvíe hacia resultados perjudiciales o peligrosos durante la fase de posdespliegue. Este cambio de comportamiento puede ser inducido de forma indirecta, por ejemplo, mediante la inyección deliberada de datos falsos o engañosos en sus sistemas de aprendizaje, lo que compromete su integridad funcional. O bien, puede ser provocado de forma directa, a través de instrucciones explícitas que ordenan a la IA ejecutar acciones ilícitas o que atenten contra la seguridad de otras personas.

mit158

Abuso y Mal Uso

El riesgo de uso malicioso de la Inteligencia Artificial se define como la explotación deliberada e intencional de sistemas de IA potentes para infligir daños a gran escala. Este espectro de amenaza abarca desde la producción de sofisticadas suplantaciones sintéticas (deepfakes) y la orquestación de ciberataques automatizados o esquemas de vigilancia invasiva, hasta las aplicaciones más catastróficas. Estas últimas incluyen el desarrollo de nuevos agentes biológicos o la liberación autónoma de modelos de IA para que persigan objetivos dañinos de forma independiente, como la difusión masiva de propaganda. La mitigación de este riesgo fundamental requiere un enfoque sistémico, centrado en la mejora de la bioseguridad, la restricción de acceso a modelos de IA avanzados y el establecimiento de marcos de responsabilidad legal para sus desarrolladores.

5. Interaccion Humano-Computadora

Riesgos en la interfaz entre personas y sistemas, incluyendo dependencia, engaño y erosion de agencia.

6. Socioeconomico y Ambiental

Riesgos distribucionales, institucionales y ambientales generados por el despliegue de IA.

7. Seguridad, Fallos y Limitaciones del Sistema de IA

Riesgos de fallos, comportamiento inseguro y limites operativos de sistemas y modelos.