Todos los dominios MIT

262 paginas canonicas MIT

6. Socioeconomico y Ambiental

Riesgos distribucionales, institucionales y ambientales generados por el despliegue de IA.

6. Socioeconómico y Ambiental

Accelerated development of nanotechnology produces uncontrolled production of toxic nanoparticles

La Inteligencia Artificial (IA) es un motor fundamental en el desarrollo de nanobots. Este avance plantea serios riesgos ambientales, principalmente al modificar de manera invisible y a escala nanométrica la composición de diversas sustancias. Por ejemplo, los nanobots podrían catalizar reacciones químicas que culminarían en la creación de nanopartículas invisibles, de naturaleza tóxica y potencial letalidad.

6. Socioeconómico y Ambiental

Acceso dispar a beneficios por limitaciones de hardware/software

La distribución de los beneficios derivados de los Modelos de Lenguaje (ML) enfrenta un desafío estructural de equidad. Las disparidades en el acceso a la infraestructura (internet y hardware), las barreras idiomáticas y las distintas habilidades de uso digital dificultan que estos avances sean universalmente accesibles. Esta distribución asimétrica corre el riesgo de profundizar las brechas de desigualdad global al favorecer a las poblaciones ya privilegiadas. Aunque existe el potencial de que las herramientas lingüísticas aumenten la inclusión para personas con analfabetismo o ciertas discapacidades de aprendizaje, es fundamental reconocer que la realización de este beneficio está condicionada a la superación de una barrera de acceso más elemental: la disponibilidad del equipo, la conectividad sostenida y la competencia operativa mínima del usuario

6. Socioeconómico y Ambiental

Agotamiento de recursos naturales

Agotamiento de Recursos Naturales Este fenómeno se refiere a la extracción intensiva y sistemática de materiales críticos—como minerales, metales, tierras raras y combustibles fósiles—de la corteza terrestre. Estas prácticas no solo merman las reservas finitas del planeta, sino que el proceso en sí mismo es una fuente significativa de aumento en las emisiones de carbono, exacerbando la crisis climática global.

6. Socioeconómico y Ambiental

Alto consumo de energía de modelos grandes

El entrenamiento y el despliegue de modelos de inteligencia artificial a gran escala conllevan una elevada demanda energética. La incesante tendencia hacia modelos cada vez más voluminosos exacerba esta problemática, lo que se traduce en un consumo eléctrico excesivo y una consecuente huella ecológica adversa.

6. Socioeconómico y Ambiental

Ambiental

El potencial riesgo de detrimento o impacto adverso sobre el medio ambiente natural y los ecosistemas, generado por la operación o el ciclo de vida del sistema de aprendizaje automático

6. Socioeconómico y Ambiental

Ambiental

Riesgo de Impacto Ambiental: Hace referencia al perjuicio ecológico o biológico, ya sea directo o indirecto, que un sistema tecnológico —o un conjunto interconectado de ellos— podría ocasionar al medio ambiente. Este concepto abarca desde la contaminación y el consumo de recursos inherentes a su operación, hasta las modificaciones sistémicas a largo plazo que alteren los ecosistemas como consecuencia de sus decisiones o escala.

6. Socioeconómico y Ambiental

Apropiación indebida y explotación

Utilización, apropiación o replicación de datos o contenido, incluidos aquellos de grupos minoritarios, sin el consentimiento expreso de los propietarios o una compensación económica equitativa. Se incluye también la manipulación o presentación de dicho material de forma culturalmente insensible.

6. Socioeconómico y Ambiental

Arraigo y exacerbación de desigualdades existentes

Los riesgos más graves relacionados con el acceso que plantean los asistentes de IA avanzados se centran en el arraigo y la exacerbación de las desigualdades ya existentes (Base de Datos de Desigualdad Mundial) o en la creación de inequidades totalmente nuevas y previamente desconocidas. Aunque los asistentes de IA avanzados son una tecnología novedosa en ciertos aspectos, hay motivos para creer que –sin intervenciones de diseño directas– seguirán afectados por las inequidades evidentes en los sistemas de IA actuales (Bommasani et al., 2022a). Muchos de los riesgos de acceso que anticipamos reflejan aquellos descritos en estudios de caso sobre los tipos de acceso diferencial. En esta sección, los vinculamos más estrechamente a los elementos que definen a un asistente de IA avanzado para mejorar la comprensión y mitigar problemas potenciales, y así sentar las bases para asistentes que apoyen una oportunidad y un acceso amplios e inclusivos. Comenzamos con las capacidades ya existentes establecidas en la definición (ver Capítulo 2) antes de aplicar la prospectiva a aquellas más novedosas y emergentes. Capacidades actuales: Agentes artificiales con interfaces de lenguaje natural. Los agentes artificiales con interfaces de lenguaje natural están muy extendidos (Browne, 2023) y se integran cada vez más en el tejido social y la infraestructura de información existente, incluyendo motores de búsqueda (Warren, 2023), aplicaciones de mensajería empresarial (Slack, 2023), herramientas de investigación (ATLAS.ti, 2023) y aplicaciones de accesibilidad para personas ciegas o con baja visión (Be My Eyes, 2023). Ya existe evidencia de una variedad de daños sociotécnicos que pueden surgir del uso de agentes artificiales con interfaces de lenguaje natural cuando algunas comunidades experimentan un acceso inferior a ellos (Weidinger et al., 2021). Como se describió previamente, estos daños incluyen una calidad de acceso inferior (en el tipo de situación 2) entre grupos de usuarios, lo cual puede reflejar dinámicas sociales más amplias que involucran la raza (Harrington et al., 2022), la discapacidad (Gadiraju et al., 2023) y la cultura (Jenka, 2023). A medida que los desarrolladores facilitan la integración de estas tecnologías en otras herramientas, servicios y sistemas de toma de decisiones (por ejemplo, Marr, 2023; Brockman et al., 2023; Pinsky, 2023), su adopción podría acentuar las inequidades de rendimiento existentes o introducirlas a públicos nuevos y más amplios.

6. Socioeconómico y Ambiental

Arte - Creatividad

En este ámbito de estudio, predominan las preocupaciones sobre el impacto negativo de los modelos de texto a imagen en la creatividad humana. La literatura especializada critica, por un lado, los perjuicios financieros y las pérdidas económicas para los artistas causadas por la generación masiva de arte sintético; y por otro, el uso no autorizado y sin compensación de sus obras en los conjuntos de datos de entrenamiento, un debate central sobre derechos de autor y compensación. Además, dada la dificultad de diferenciar las imágenes sintéticas de las auténticas, existe un llamado a divulgar sistemáticamente el origen no humano de este contenido, sugiriendo el uso de marcas de agua como una solución técnica. Finalmente, mientras algunas fuentes debaten si estos modelos poseen una creatividad 'verdadera' o la capacidad de producir una estética genuinamente innovadora, otras destacan su potencial positivo como aceleradores de la propia creatividad humana.

6. Socioeconómico y Ambiental

Atribución compleja y responsabilidad

La intervención de múltiples agentes a lo largo del ciclo de vida del desarrollo y despliegue de la inteligencia artificial provoca una dilución de la responsabilidad, lo cual dificulta notablemente la asignación de culpas ante un perjuicio y compromete la eficacia de los mecanismos de rendición de cuentas.

6. Socioeconómico y Ambiental

Autenticidad

A medida que la Inteligencia Artificial generativa avanza, se vuelve cada vez más complejo discernir la autenticidad de cualquier contenido o creación. Las fotografías que simulan capturar personas o eventos del mundo real pueden ser, en realidad, productos sintéticos de algoritmos DeepFake. Este formidable poder de la IA podría facilitar manipulaciones de imágenes y videos a gran escala, intensificando la propagación de la desinformación y las noticias falsas en las plataformas sociales (Gragnaniello et al., 2022). Paralelamente, en el campo de las artes, una pieza musical o un retrato artístico pueden ser el resultado directo de un algoritmo. Sobre este punto, la crítica ha planteado que la obra generada por IA adolece de falta de autenticidad intrínseca, principalmente porque los algoritmos tienden a producir resultados que son inherentemente genéricos y repetitivos (McCormack et al., 2019).

6. Socioeconómico y Ambiental

Automatización basada en IA aumenta la desigualdad de ingresos

Resulta altamente plausible que los avances en el aprendizaje por refuerzo y, de forma particular, en los modelos de lenguaje, posibiliten la automatización masiva de grandes volúmenes de trabajo manual y de conocimiento, respectivamente. Este escenario podría desencadenar un desempleo generalizado, así como una consecuente depresión salarial en los puestos de trabajo que subsistan, producto de la mayor oferta de mano de obra.

6. Socioeconómico y Ambiental

Automatización de Trabajo en vez de Aumento

El impacto de la Inteligencia Artificial (IA) en el mercado laboral es bifronte, presentando tanto beneficios como riesgos. Un informe de la Casa Blanca subraya su potencial para "incrementar la productividad, generar nuevos empleos y elevar el nivel de vida". Sin embargo, la IA también posee la capacidad de desestabilizar sectores específicos, induciendo transformaciones profundas que pueden incluir la pérdida de puestos de trabajo. Más allá del riesgo de desempleo total, los trabajadores se enfrentan a la posibilidad de que las herramientas de IA generativa automaticen tareas parciales dentro de sus funciones, o que, en un sentido más amplio, modifiquen fundamentalmente los requisitos y la naturaleza de su trabajo. El efecto final de la IA generativa dependerá de si su implementación prioriza la **automatización** (sistemas automatizados que sustituyen la labor humana) o la **aumentación** (IA utilizada como apoyo o potenciador de las capacidades del trabajador). Históricamente, en las últimas dos décadas, los avances acelerados en automatización han conducido a una "disminución de la participación laboral en la renta, el estancamiento salarial y la desaparición de empleos de calidad en muchas economías avanzadas".

6. Socioeconómico y Ambiental

Automatización, Acceso y Daños Ambientales

Perjuicios derivados de las repercusiones ambientales directas o de las consecuencias económicas secundarias generadas por la operación o el despliegue del modelo de lenguaje.

6. Socioeconómico y Ambiental

Benchmark Limitations (Insufficient benchmarks for AI safety evaluation)

Los mecanismos de evaluación del rendimiento de los sistemas de Inteligencia Artificial (IA) –como los que miden su desempeño en tareas de programación o matemáticas– han alcanzado una madurez notablemente superior en comparación con las métricas diseñadas para medir su seguridad y el potencial de generar daños. Esta disparidad metodológica configura una brecha crítica: permite que los sistemas de IA exhiban una excelencia funcional en ciertos ámbitos mientras manifiestan simultáneamente comportamientos perjudiciales que eluden la detección. Por consiguiente, la expansión y el desarrollo de conjuntos de datos de evaluación específicamente orientados a la seguridad resultan indispensables para poder identificar y mitigar conductas indeseables en los modelos que, hasta ahora, permanecen inadvertidas.

6. Socioeconómico y Ambiental

Benchmark Limitations (Underestimating capabilities that are not covered by benchmarks)

La ausencia de métricas de evaluación (*benchmarks*) que examinen rigurosamente habilidades específicas de un modelo de IA puede generar una opacidad en sus capacidades reales, tanto para quienes lo desarrollan como para quienes lo utilizan. Este desconocimiento de las verdaderas limitaciones del modelo puede inducir peligrosamente a una sensación ilusoria de seguridad y confianza.

6. Socioeconómico y Ambiental

Benchmarking (Contaminación de anotaciones)

El fenómeno de la contaminación por anotación describe la situación en la que un modelo de inteligencia artificial, durante su fase de entrenamiento, es expuesto a las "etiquetas" o soluciones esperadas del conjunto de datos que se supone debe utilizarse únicamente para la evaluación final (el *benchmark*). Esta exposición indebida permite que el modelo no aprenda a resolver el problema por sí mismo, sino que internalice o memorice la distribución de las respuestas correctas, lo que artificialmente sesga el rendimiento. Si a esto se le suma la contaminación directa de los datos brutos del conjunto de prueba (es decir, la fuga de los propios ejemplos de prueba al entrenamiento), la validez de cualquier evaluación queda totalmente comprometida. En esencia, la totalidad del conjunto de prueba se ha "filtrado" al modelo, impidiendo una medición objetiva de su capacidad genuina de generalización.

6. Socioeconómico y Ambiental

Benchmarking (Contaminación de datos brutos)

Este fenómeno se denomina *contaminación de datos de evaluación* y ocurre cuando el material crudo y sin etiquetar de un conjunto de pruebas de referencia (un *benchmark*) se incorpora accidentalmente al conjunto de datos de entrenamiento de un modelo. Dado que esta información no está depurada ni formateada, puede introducir ruido o sesgos. La implicación crítica es que, si el modelo ha tenido contacto previo con el contenido del *benchmark*, incluso en esta forma bruta, su rendimiento reportado en tareas de aprendizaje con cero o pocos ejemplos (*zero-shot* y *few-shot* performance) queda bajo serio escrutinio, pues la evaluación ya no mide una capacidad de generalización genuina.

6. Socioeconómico y Ambiental

Benchmarking (Contaminación de datos interlingüística)

El entrenamiento de Modelos de Lenguaje Grande (LLMs) con datos multilingües (como los extraídos de rastreos web) introduce un riesgo sutil pero significativo la contaminación oculta por traducción. Este fenómeno ocurre cuando un *benchmark* (un conjunto de pruebas estandarizadas para evaluar capacidades específicas) es traducido a otro idioma y, de forma inadvertida, se incorpora al conjunto de datos de entrenamiento del modelo. El proceso de traducción actúa como un velo que dificulta la detección de esta contaminación mediante métodos convencionales. La consecuencia directa es que el modelo obtiene puntuaciones elevadas, lo que genera una falsa sensación de seguridad sobre su capacidad de *generalización*. En esencia, el modelo no ha adquirido la habilidad que se busca medir, sino que ha memorizado las respuestas traducidas, conduciendo a una sobreestimación potencialmente peligrosa de su rendimiento real.

6. Socioeconómico y Ambiental

Benchmarking (Contaminación de directrices)

El concepto de *contaminación de pautas* (*guideline contamination*) se refiere a escenarios donde las instrucciones detalladas, originalmente diseñadas para guiar la recolección, anotación o el uso de un conjunto de datos, son inadvertidamente expuestas al modelo de inteligencia artificial. Fundamentalmente, estas directrices pueden vehicular pares explícitos de dato y etiqueta, proporcionando al modelo un atajo que artificialmente mejora sus capacidades para la tarea, sin que necesariamente refleje un aprendizaje robusto.

6. Socioeconómico y Ambiental

Benchmarking (Contaminación post-despliegue)

El concepto aborda un riesgo de seguridad post-despliegue: cuando un modelo operativo es expuesto a datos de referencia (benchmark data) proporcionados por los propios usuarios. La inclusión de esta información específicamente diseñada para la evaluación en el *set* de datos de entrenamiento continuo puede llevar a un reentrenamiento involuntario del modelo, contaminando así los futuros procesos de validación y comprometiendo la fidelidad de las métricas de rendimiento y seguridad.

6. Socioeconómico y Ambiental

Benchmarking (Fuga o contaminación de datos)

La fuga de *benchmarks* o filtración de datos de evaluación se produce cuando un modelo de inteligencia artificial se entrena o ajusta con información que está intrínsecamente ligada al conjunto de datos de prueba destinado a su evaluación (el *benchmark*). Específicamente, si el modelo consume pares de pregunta-respuesta extraídos de ese *benchmark*, su rendimiento en las pruebas posteriores se vuelve sesgado e inflado. El resultado directo es una evaluación del modelo fundamentalmente no confiable, ya que el sistema no está demostrando una capacidad real de generalización, sino la simple memorización de las respuestas.

6. Socioeconómico y Ambiental

Beneficios perdidos

La **omisión en el desarrollo y el despliegue** de la Inteligencia Artificial en aquellas líneas de aplicación que podrían generar un beneficio directo para el bienestar animal. Este riesgo se materializa a través de una **mala asignación de recursos** que, en su lugar, se concentra en sistemas de IA que resultan perjudiciales o que son neutrales en su impacto sobre la vida animal.

6. Socioeconómico y Ambiental

Bloqueo de valores (Value lock-in)

El riesgo de la **centralización del poder de la IA** describe una dinámica donde los sistemas de inteligencia artificial más avanzados son desarrollados y controlados por un grupo de actores cada vez más reducido. Esta concentración tecnológica facilita que ciertas entidades, como regímenes políticos o grandes corporaciones, utilicen estas capacidades para la **imposición coercitiva de valores** e ideologías específicas. El mecanismo principal para esto es la implementación de sistemas de **vigilancia ubicua** y el desarrollo de **mecanismos de censura altamente sofisticados**, lo que restringe el discurso público y erosiona las libertades civiles.

6. Socioeconómico y Ambiental

Brecha digital

La brecha digital se ha definido tradicionalmente como la disparidad fundamental entre quienes tienen y quienes no tienen acceso a ordenadores e Internet. No obstante, con la ubicuidad progresiva de la red, la atención se desplaza hacia la "brecha digital de segundo nivel", que se centra en las diferencias en las habilidades de uso de Internet y la efectividad con la que distintos grupos o culturas la aprovechan. La Inteligencia Artificial (IA) generativa, como tecnología emergente, tiene el potencial de ensanchar esta división preexistente en la sociedad. En el **primer nivel (el de acceso)**, la brecha se profundiza para aquellos que no tienen dispositivos, conectividad, o que residen en regiones que son bloqueadas por los proveedores de herramientas de IA. En el **segundo nivel (el de uso y comprensión)**, el riesgo es más matizado. Por un lado, la IA "invisible" que impulsa muchos sistemas hace que la interacción se complique. Esto exacerba la brecha para aquellos a quienes les resulta difícil utilizar la herramienta (como algunas personas mayores). Por otro lado, surge una barrera cultural: si las lenguas o culturas marginadas no son incorporadas o aprendidas a fondo por los modelos de IA generativa, estos grupos minoritarios se enfrentarán a barreras lingüísticas y culturales que limitarán su participación plena. Para mitigar este riesgo de división, la solución pasa por asegurar una IA más accesible y promover activamente la formación en "alfabetización en IA" (AI literacy) a nivel social.

6. Socioeconómico y Ambiental

Brecha Global de I+D en IA

La investigación y el desarrollo (I+D) de la Inteligencia Artificial de propósito general está altamente concentrada en grandes corporaciones de países con infraestructuras digitales avanzadas. Esta centralización de la capacidad de innovación podría exacerbar la desigualdad global y generar nuevas dinámicas de dependencia. A modo de ejemplo, durante 2023, más de la mitad (56%) de los modelos de IA más destacados se originaron en Estados Unidos. Esta marcada disparidad tecnológica expone a los Países de Ingresos Bajos y Medios (PIBM) a un riesgo significativo de dependencia, con el potencial de intensificar las asimetrías socioeconómicas preexistentes.

6. Socioeconómico y Ambiental

Brecha Global de IA

El desarrollo y la investigación de la IA de propósito general se están centralizando en un número limitado de países occidentales y China. Esta 'Brecha de la IA' es multifactorial, pero se debe principalmente al acceso restringido a la capacidad de cómputo necesaria en naciones de bajos ingresos. Dado que la computación a gran escala y costosa es un requisito indispensable para la IA avanzada, esta concentración otorga un dominio creciente a las grandes empresas tecnológicas y, al superponerse con las disparidades socioeconómicas globales preexistentes, corre el riesgo de agravarlas.

6. Socioeconómico y Ambiental

Brechas Globales de I+D en IA:

La asimetría en el desarrollo de la Inteligencia Artificial entre naciones podría agudizar las tensiones geopolíticas y generar una nueva dinámica de dependencia tecnológica. Aquellos países que carezcan de capacidades avanzadas de IA se verían cada vez más obligados a depender de sistemas de IA extranjeros para operar funciones críticas. Por el contrario, las naciones líderes en esta tecnología podrían ejercer una influencia desproporcionada sobre los sistemas económicos y de seguridad a nivel global, lo cual representa un riesgo significativo de desestabilización para los actuales marcos de cooperación internacional.

6. Socioeconómico y Ambiental

Capacidad para automatizar trabajos

La inherente capacidad de los modelos y sistemas de Inteligencia Artificial para la automatización masiva de tareas y roles laborales podría catalizar un significativo desplazamiento de la fuerza de trabajo, generando una consecuente disrupción en la estructura económica global y exacerbar la desigualdad social preexistente.

6. Socioeconómico y Ambiental

Capacidades que permiten la sustitución de humanos

La sustitución paulatina de las funciones desempeñadas por el ser humano a manos de los modelos y sistemas de Inteligencia Artificial (IA) constituye un vector potencial de desestabilización, con la capacidad de generar una profunda disrupción en el entramado social.

6. Socioeconómico y Ambiental

Carrera Armamentista de IA Militar

El desarrollo de la inteligencia artificial con fines bélicos está catalizando lo que ya se describe como la "tercera revolución en la guerra", un cambio tecnológico cuyas potenciales consecuencias se comparan solo con el impacto histórico de la pólvora y las armas nucleares. Esto representa el inicio de una nueva era en la tecnología militar.

6. Socioeconómico y Ambiental

Carrera corporativa de IA

Si bien la competencia empresarial puede ser un motor beneficioso para la sociedad al impulsar la creación de productos más útiles para los consumidores, su dinámica también presenta riesgos inherentes. En primer lugar, la distribución desigual de los beneficios de la actividad económica incentiva a los principales agentes beneficiados a desestimar o ignorar los perjuicios que sus acciones infligen a terceros. En segundo lugar, bajo una intensa presión competitiva en el mercado, las entidades tienden a priorizar de manera desproporcionada las ganancias a corto plazo sobre las consecuencias a largo plazo. Esta orientación cortoplacista impulsa a las corporaciones a buscar activamente aquello que genere una alta rentabilidad inmediata, incluso si ello conlleva un riesgo sistémico o social significativo en el horizonte temporal más amplio.

6. Socioeconómico y Ambiental

Carrera de IA (Ambiental/Estructural)

El vasto potencial de las inteligencias artificiales ha desencadenado una intensa presión competitiva entre los principales actores globales que buscan consolidar poder e influencia. Esta 'carrera por la IA' se origina en la percepción de naciones y grandes corporaciones de que deben desarrollar e implementar estos sistemas con extrema rapidez para salvaguardar su relevancia estratégica y garantizar su supervivencia en el escenario mundial.

6. Socioeconómico y Ambiental

Carreras de desarrollo peligrosas

La intensa presión competitiva en el desarrollo de sistemas de Inteligencia Artificial podría inducir a las organizaciones a desatender o minimizar los protocolos de seguridad esenciales, priorizando la velocidad de lanzamiento al mercado sobre la robustez y la mitigación de riesgos.

6. Socioeconómico y Ambiental

Centralización del Poder Económico y Desigualdad

El concepto de seguridad de la Inteligencia Artificial (IA) se define como el campo interdisciplinario que abarca la investigación, la formulación de estrategias y el desarrollo de políticas. Su propósito fundamental es garantizar la fiabilidad y la robustez de los sistemas de IA, asegurar su alineamiento con los valores y objetivos humanos, y, en última instancia, prevenir cualquier forma de daño sistémico o grave.

6. Socioeconómico y Ambiental

Competencia directa con humanos

Este riesgo postula que uno o varios agentes de inteligencia artificial podrían desarrollar una *ventaja competitiva intrínseca* frente a los seres humanos en el ámbito laboral. Esta superioridad no se limitaría a la fuerza bruta, sino que abarcaría la capacidad de ejecutar tareas con mayor **velocidad**, una mejor **adaptación** a entornos dinámicos y el acceso a una **base de conocimiento** exponencialmente más vasta. La implicación económica directa es que, ante tal eficiencia, el trabajo humano se tornaría comparativamente **más costoso o menos efectivo** que el realizado por agentes artificiales. El resultado sería la obsolescencia masiva, provocando tanto la **sustitución** generalizada de puestos de trabajo como, en el escenario más extremo, el colapso y eventual **extinción** de la fuerza laboral humana tal como la conocemos.

6. Socioeconómico y Ambiental

Competencia geopolítica por superioridad

La escalada de una competencia estratégica entre naciones por el dominio de las capacidades de la Inteligencia Artificial (IA) representa un riesgo geopolítico fundamental, capaz de exacerbar las tensiones globales y socavar la estabilidad del sistema de relaciones internacionales.

6. Socioeconómico y Ambiental

Competencia por empleos

Si bien existe la preocupación de que los agentes de inteligencia artificial compitan por puestos de trabajo, el precedente histórico sugiere que la introducción de nuevas tecnologías, aunque desplaza ciertas funciones, suele generar nuevas categorías de empleo que demandan un conjunto de habilidades más avanzado.

6. Socioeconómico y Ambiental

Concentración de Autoridad

El despliegue de sistemas de inteligencia artificial generativa para consolidar el poder autoritativo y reforzar los sistemas de valores hegemónicos puede manifestarse de manera explícita y directa, o de forma más sutil e indirecta. Es crucial comprender que la concentración de este poder no solo tiende a exacerbar la desigualdad social, sino que también incrementa significativamente el potencial de explotación.

6. Socioeconómico y Ambiental

Concentración de Mercado y Dependencias de Infraestructura:

La excesiva dependencia de un número limitado de proveedores de inteligencia artificial dominantes constituye un riesgo sistémico, al generar "puntos únicos de fallo críticos" a través de servicios esenciales. La marcada concentración del mercado en el desarrollo de IA podría propiciar escenarios donde fallos técnicos, ciberataques, o decisiones políticas por parte de estas pocas entidades perturben simultáneamente sistemas interconectados de importancia crítica, tales como la sanidad, las finanzas, las redes de transporte y la infraestructura de comunicaciones, desencadenando una cascada de fallos a nivel global.

6. Socioeconómico y Ambiental

Concentración de mercado y puntos únicos de fallo

La estructura del mercado de la Inteligencia Artificial de propósito general está marcada por una elevada concentración de poder en un número muy limitado de actores. Esta oligopolización confiere a unas pocas megacompañías tecnológicas una influencia considerable sobre el desarrollo y la implementación de la IA, lo que plantea serios desafíos en torno a la gobernanza y la rendición de cuentas de estos sistemas. Más allá de la influencia corporativa, esta dependencia masiva de unos pocos modelos fundamentales introduce un riesgo sistémico: la manifestación de un fallo, sesgo o vulnerabilidad en uno de estos sistemas omnipresentes podría generar fallos en cascada en sectores vitales como el financiero, el sanitario o la infraestructura crítica.

6. Socioeconómico y Ambiental

Concentración de poder

La Concentración de Poder (*Power Concentration*) se define como la intensificación de la acumulación de riqueza y/o influencia política en un subconjunto limitado de entidades o individuos. Este fenómeno conlleva el riesgo de exacerbar significativamente la desigualdad socioeconómica y, consecuentemente, aumentar la inestabilidad sistémica.

6. Socioeconómico y Ambiental

Concentración de poder

Desde una perspectiva de riesgo socioeconómico, la implementación de sistemas de IA avanzada podría acelerar la centralización del poder económico y político. El mecanismo es claro: al generar rendimientos crecientes e incesantes sobre el capital para sus propietarios, esta tecnología disminuirá significativamente la dependencia de los empleadores hacia la mano de obra humana y, consecuentemente, su sensibilidad o capacidad de respuesta a las necesidades de los trabajadores. En esencia, el capital digital se vuelve exponencialmente más productivo y dominante que el factor trabajo.

6. Socioeconómico y Ambiental

Concentración de Poder

Existe el riesgo de que, buscando controlar los peligros de la IA, los gobiernos impongan una vigilancia extrema y centralicen el poder tecnológico en manos de una élite selecta. Paradójicamente, esta 'medida de seguridad' podría ser una sobrerreacción que sentaría las bases para un régimen totalitario inamovible, cuya autoridad quedaría cimentada e ineludible gracias al mismo poder de las inteligencias artificiales.

6. Socioeconómico y Ambiental

Concentración de poder de mercado (Tendencia)

En el ámbito de la IA generativa, las barreras de entrada son excepcionalmente altas. Este entorno exige un acceso masivo a datos, ingentes recursos computacionales, pericia técnica avanzada y capital considerable. Las grandes corporaciones tecnológicas, al poseer estos elementos, consolidan su dominio a través de economías de escala y alcance, potenciadas por un ciclo de retroalimentación (donde los datos de los usuarios mejoran el modelo, atrayendo más usuarios). Este mecanismo les confiere una ventaja estructural casi insuperable, volviendo la competencia prácticamente inviable para entidades más pequeñas.

6. Socioeconómico y Ambiental

Concentration of market power (Negative effects of increased market concentration)

La concentración de activos críticos para la inteligencia artificial—que comprenden datos masivos, infraestructura de hardware de alto rendimiento y el capital humano experto—en un grupo muy reducido de corporaciones tecnológicas globales, plantea serias y diversas preocupaciones. Un escenario de esta índole podría resultar en el estrangulamiento de la competencia efectiva, obstaculizar la tasa de innovación en el sector y, consecuentemente, conducir a un aumento en los costos de acceso a estas tecnologías fundamentales. Aquellas firmas que ya ejercen el control sobre los recursos esenciales para el desarrollo de modelos de IA tienen la capacidad y el incentivo de restringir dicho acceso, funcionando como un mecanismo para prevenir la aparición de nuevos competidores. A modo de ilustración, si en el futuro el entrenamiento de los modelos de inteligencia artificial dependiera de forma creciente de datos propietarios, las organizaciones con menor capacidad o sin acceso a dichos conjuntos de datos se enfrentarían a barreras de entrada y de crecimiento prácticamente insuperables.

6. Socioeconómico y Ambiental

Conflicto empeorado

El eje de cooperación y conflicto es crucial. Actualmente, se observa un desequilibrio en la inversión, con un marcado énfasis en el desarrollo de capacidades de Inteligencia Artificial que tienden a exacerbar la probabilidad y la severidad de los conflictos, en lugar de priorizar aquellas que fomentarían la cooperación. Dada esta trayectoria, la IA se perfila con una mayor propensión a generar impactos adversos a largo plazo en la estabilidad de las dinámicas internacionales.

6. Socioeconómico y Ambiental

Conflictos de interés en selección de auditores

El riesgo de conflicto de intereses es inherente cuando el proceso de selección del auditor carece de independencia, o si existe una asociación demasiado estrecha entre los profesionales de la auditoría y el equipo de desarrollo [123, 157]. Es crucial notar que esta problemática persiste incluso con la intervención de evaluadores de terceras partes. En el contexto específico de la auditoría externa, los candidatos suelen ser elegidos de un universo limitado de profesionales, o bien pueden estar sujetos a incentivos económicos que entran en conflicto directo con la obligación de divulgar públicamente las vulnerabilidades o deficiencias detectadas en el modelo.

6. Socioeconómico y Ambiental

Conflictos de recursos impulsados por desarrollo de IA

El desarrollo de la inteligencia artificial podría, paradójicamente, erigirse como un nuevo foco geopolítico de conflicto, exacerbando las fricciones preexistentes y generando nuevas disputas. Este riesgo se materializa especialmente en la competencia por el control de los recursos estratégicos indispensables para su avance, tales como los centros de datos, las instalaciones de fabricación de semiconductores y las materias primas críticas.

6. Socioeconómico y Ambiental

Construcción de una IA capaz de adaptarse a humanos

Esta línea de investigación abarca aproximadamente el 9% de los artículos revisados y se centra en las implicaciones éticas derivadas de la capacidad de la Inteligencia Artificial para interactuar directamente con el personal humano en el entorno laboral.

6. Socioeconómico y Ambiental

Consumo de Energía

Una dimensión crítica y a menudo subestimada en el desarrollo de la inteligencia artificial, especialmente en los modelos de aprendizaje profundo (deep learning), es su considerable huella energética. Estos sistemas se basan en ciclos de aprendizaje iterativos, que son computacionalmente muy intensivos. El resultado directo es un consumo de energía significativamente alto, lo cual plantea serias interrogantes sobre la sostenibilidad y las implicaciones medioambientales a gran escala de esta tecnología.

6. Socioeconómico y Ambiental

Consumo excesivo de agua

Consumo Hídrico Desmedido. Este fenómeno se refiere a la utilización intensiva de agua, primordialmente para la refrigeración de grandes centros de datos, que ejerce una presión indebida sobre las reservas hídricas locales, pudiendo ocasionar restricciones o escasez crítica del recurso para las comunidades y empresas del entorno.

6. Socioeconómico y Ambiental

Consumo excesivo de energía

Impacto Energético Desproporcionado - Uso de energía que excede los límites sostenibles, lo que resulta en la saturación de la infraestructura de suministro y conduce a una escasez crítica de recursos para la ciudadanía, las organizaciones públicas y el sector empresarial.

6. Socioeconómico y Ambiental

Consumo excesivo de energía

El consumo energético excesivo provoca 'estrangulamientos' o 'cuellos de botella' en la infraestructura de suministro. Esta deficiencia se manifiesta como una escasez crítica que impacta directamente en la operatividad y estabilidad de comunidades, organizaciones y el tejido empresarial.

6. Socioeconómico y Ambiental

Contaminación

Contaminación - Se refiere al impacto ambiental sistemático, ya sea real o potencial, generado por un sistema tecnológico, que afecta negativamente la calidad del aire, el suelo, el medio acuático, o contribuye a la polución acústica.

6. Socioeconómico y Ambiental

Contaminación

Riesgo de contaminación ambiental (aérea, terrestre, hídrica o acústica) provocado por la infraestructura o el funcionamiento de un sistema tecnológico

6. Socioeconómico y Ambiental

Costo ambiental

Los sistemas de Aprendizaje Profundo (Deep Learning, DL) a gran escala generan una huella de carbono considerable. Esto se debe a las ingentes demandas computacionales necesarias tanto para sus extensos procesos de entrenamiento como para su posterior operación (inferencia)

6. Socioeconómico y Ambiental

Costo ambiental (consumo de agua)

Los centros de datos emplean agua para la refrigeración, un proceso vital para evitar el sobrecalentamiento de los servidores. El consumo hídrico derivado específicamente de los procesos de entrenamiento e inferencia de la inteligencia artificial puede ser sustancial, ejerciendo una presión significativa sobre los recursos hídricos locales.

6. Socioeconómico y Ambiental

Costo ambiental (consumo de energía)

El entrenamiento de modelos de Inteligencia Artificial de gran escala demanda una capacidad de procesamiento computacional considerable para gestionar volúmenes ingentes de datos, lo que resulta en un elevado gasto energético.

6. Socioeconómico y Ambiental

Costos Ambientales

La demanda computacional requerida para el entrenamiento, la validación y el despliegue de sistemas de IA generativa, particularmente los modelos de gran envergadura, implica un consumo considerable de recursos energéticos. Este consumo se traduce, consecuentemente, en la emisión de gases de efecto invernadero, exacerbando la crisis climática global.

6. Socioeconómico y Ambiental

Costos Financieros

Los altos costos estimados para el entrenamiento, prueba y despliegue de los sistemas de IA generativa establecen una barrera de acceso económico que restringe significativamente los grupos capaces de desarrollar e interactuar con estas tecnologías, lo cual tiene implicaciones directas en la democratización tecnológica.

6. Socioeconómico y Ambiental

Creciente desigualdad y efectos negativos en calidad de empleo

Desde una perspectiva de riesgo sociolaboral, la evolución de los Modelos de Lenguaje (ML) y sus aplicaciones tecnológicas podría materializar la automatización de roles previamente cubiertos por trabajadores, específicamente en áreas como la atención al cliente. Este proceso proyecta un impacto adverso considerable sobre los niveles de empleo y la estructura ocupacional.

6. Socioeconómico y Ambiental

Creciente desigualdad y efectos negativos en calidad de empleo

El progreso en los Modelos de Lenguaje (ML), y las tecnologías lingüísticas que se desarrollan a partir de ellos, podría generar la automatización de tareas actualmente realizadas por trabajadores humanos remunerados, como la atención a consultas de servicio al cliente, la traducción de documentos o la programación de código informático, lo que se traduciría en un impacto negativo en el empleo.

6. Socioeconómico y Ambiental

Cuestiones de responsabilidad en caso de accidentes

A pesar de la promesa de una movilidad optimizada, la IA en el transporte genera serias preocupaciones sobre la determinación de la responsabilidad legal en caso de accidentes. Esto nos obliga a debatir qué principios éticos deben regir a los agentes autónomos al tomar decisiones que podrían tener un impacto peligroso para los seres humanos, por ejemplo, en situaciones de siniestro vial.

6. Socioeconómico y Ambiental

Cultural dispossession

Desposesión cultural: Se refiere a la pérdida o eliminación, intencionada o no intencionada, de bienes y valores fundamentales que definen una cultura. Esto abarca aspectos tan diversos como los modos particulares de expresión lingüística, las formas de humor o los patrones sonoros y vocales que constituyen una identidad comunitaria. Asimismo, incluye la reutilización o la apropiación inapropiada de estos elementos por parte de culturas o contextos ajenos a su origen.

6. Socioeconómico y Ambiental

Cumplimiento

Este riesgo se centra en la *responsabilidad legal y ética* de los sistemas de Inteligencia Artificial. Se refiere al potencial inherente de que una IA incumpla normativas vigentes (incluyendo, por ejemplo, los derechos de autor) o directrices éticas establecidas. Las consecuencias directas de esta *inobservancia* recaen principalmente sobre los desarrolladores y usuarios del sistema, manifestándose como sanciones legales severas, un deterioro significativo de la reputación corporativa y la subsecuente pérdida de la confianza pública.

6. Socioeconómico y Ambiental

Daño a la propiedad

El deterioro o la aniquilación de la propiedad tangible, generado por una acción o secuencia de acciones con consecuencias directas o indirectas. Se refiere a cualquier daño físico infligido a bienes materiales como infraestructura (edificios), activos personales (posesiones), medios de movilidad (vehículos) o sistemas físicos automatizados (robots).

6. Socioeconómico y Ambiental

Daño ambiental

Impactos ambientales adversos generados por el desarrollo y el despliegue de modelos.

6. Socioeconómico y Ambiental

Daños al Sistema Social

Los perjuicios a nivel de sistema social o societal se refieren a las repercusiones adversas a escala macroestructural que emergen de la implementación de nuevos sistemas algorítmicos dinámicos. Estos efectos nocivos se manifiestan principalmente a través de la capacidad de la tecnología para institucionalizar sesgos preexistentes y profundizar la desigualdad, además de acelerar de manera exponencial la magnitud y el alcance con que se propagan los daños.

6. Socioeconómico y Ambiental

Daños ambientales

Este concepto aborda las consecuencias materiales y ecológicas que se manifiestan a lo largo de todo el ciclo de vida de las tecnologías digitales. Estas externalidades abarcan desde el agotamiento y la contaminación de los recursos naturales —la 'cuna' del proceso, que es la extracción de materias primas— y el daño potencial a los entornos construidos o infraestructura, hasta el consumo de energía durante su 'uso' y el impacto final en la 'tumba', que es la problemática gestión de los residuos electrónicos.

6. Socioeconómico y Ambiental

Daños ambientales por operación de LMs

Los Modelos de Lenguaje (ML) y la Inteligencia Artificial generan un impacto ambiental que se articula en cuatro niveles cruciales. En primer lugar, se encuentra el **impacto directo** derivado de la energía necesaria para su entrenamiento y operación. En segundo lugar, los **impactos secundarios** por las emisiones de carbono que provienen de las aplicaciones basadas en ML en uso. En tercer lugar, los **impactos a nivel de sistema**, que surgen cuando estas aplicaciones modifican el comportamiento humano, ya sea promoviendo el consumo o, por el contrario, incrementando la conciencia ambiental. Finalmente, el **impacto sobre los recursos**, que implica la demanda de metales preciosos y materiales esenciales para la fabricación de la infraestructura de *hardware* (como centros de datos, *chips* y dispositivos). Si bien se tiene cierta evidencia sobre el consumo energético directo, se estima que los factores más relevantes para las emisiones globales de CO2 serán los impactos secundarios y sistémicos, cuya cuantificación es considerablemente más difícil. El impacto sobre los recursos, por su parte, podría magnificarse si el cómputo de estas aplicaciones se desplaza hacia dispositivos móviles, lo que generaría una mayor demanda, y su magnitud está intrínsecamente ligada a los ciclos de vida del *hardware*.

6. Socioeconómico y Ambiental

Daños ambientales y socioeconómicos

En un contexto de acelerada urgencia climática, el consumo energético y la huella de carbono de las aplicaciones de Inteligencia Artificial representan un serio imperativo ético y de responsabilidad. Al igual que ocurre con otras tecnologías intensivas en energía, como las redes de cadena de bloques de prueba de trabajo, la solución pasa por investigar y desarrollar algoritmos intrínsecamente más sostenibles desde el punto de vista ambiental. El objetivo es claro: compensar o neutralizar el impacto que genera la progresiva y creciente escala de uso de la IA.

6. Socioeconómico y Ambiental

Daños Económicos

El perjuicio económico se define como el impacto adverso sobre la posición financiera o el estatus económico de un individuo o de un colectivo. A escala individual, esto abarca la afectación de los ingresos, la precarización de la calidad del empleo y la alteración del estatus laboral. En el plano grupal, se manifiesta en la exacerbación de las desigualdades socioeconómicas y en la restricción del acceso a recursos vitales para ciertos colectivos. El riesgo central con los asistentes de IA avanzados reside en su potencial para controlar, limitar o incluso eliminar el acceso individual o social a recursos financieros esenciales, a la gestión del dinero y a la capacidad de toma de decisiones económicas, impactando directamente en la posibilidad de acumulación de riqueza.

6. Socioeconómico y Ambiental

Daños Epistémicos

Los sistemas de recomendación algorítmicos, al priorizar la interacción, tienen el efecto sistémico de reforzar y amplificar el sesgo antropocéntrico, que es la inclinación a valorar la vida humana por encima de la no humana. Esto se traduce en un circuito de retroalimentación que normaliza y propaga contenido alineado con el deseo de crueldad animal como entretenimiento, intensificando así los daños reales a los animales a través del refuerzo de prácticas como el consumo de carne de granjas industriales y los usos crueles en espectáculos.

6. Socioeconómico y Ambiental

Daños laborales y macro-socioeconómicos

A nivel estructural, los sistemas algorítmicos presentan un riesgo significativo al potenciar los "desequilibrios de poder en las relaciones socioeconómicas". Esta amplificación se observa en la profundización de las brechas digitales y la consolidación de desigualdades sistémicas ya arraigadas. En el ámbito laboral, la implementación de estos sistemas puede fomentar nuevas formas de explotación, incluyendo la recopilación de datos no ética, el empeoramiento de las condiciones de trabajo o la emergencia de un desempleo tecnológico caracterizado por la desvalorización y descalificación de la mano de obra humana. Finalmente, en el sector financiero, un fallo a gran escala de los sistemas algorítmicos puede desencadenar incidentes de alto impacto como los "colapsos repentinos" (flash crashes), cuyas repercusiones se extienden por toda la economía.

6. Socioeconómico y Ambiental

Daños Materiales Indirectos

El riesgo ecológico central asociado a la proliferación de la Inteligencia Artificial se define como **Impacto Ambiental de la Infraestructura de IA**. **Concepto Esclarecido** La rápida y creciente integración de la inteligencia artificial en múltiples sectores genera una presión directa sobre el medio ambiente, manifestada a través de dos mecanismos principales vinculados a la infraestructura de *hardware* y *software*: la demanda energética masiva y la gestión de la materialidad. En esencia, la expansión desmedida de la IA consume recursos limitados y genera desechos tóxicos a un ritmo que compromete la sostenibilidad planetaria y destruye hábitats naturales. **Mecanismos Clave del Impacto Ambiental** * **Elevado Consumo Energético y Huella de Carbono** El entrenamiento y la ejecución de grandes modelos de lenguaje (LLMs) y el funcionamiento constante de los centros de datos requieren volúmenes de electricidad extraordinarios. Dado que más del 60% de la generación eléctrica mundial aún proviene de combustibles fósiles, esta demanda impulsa un aumento significativo de las emisiones de gases de efecto invernadero. La consecuencia directa es el agravamiento del cambio climático, que a su vez se traduce en la pérdida de biodiversidad y la degradación de ecosistemas. * **Materialidad Crítica y Residuos Electrónicos (*e-waste*)** La construcción del *hardware* especializado (GPU, microchips) que sustenta la IA es intensiva en el uso de recursos, requiriendo la extracción de minerales y metales críticos. Los procesos de minería para obtener estos materiales son destructivos, causando agotamiento de las reservas hídricas, contaminación del suelo y deforestación, factores que diezman los hábitats naturales. Además, la rápida obsolescencia tecnológica en el sector de la IA acelera la generación de residuos electrónicos, los cuales, por su contenido de sustancias peligrosas como el plomo y el mercurio, representan un grave riesgo de contaminación para el agua y el suelo.

6. Socioeconómico y Ambiental

Daños por Distanciamiento

La sustitución de la observación e interacción humana por la Inteligencia Artificial conlleva el riesgo de descuidar intereses o matices que, aunque cruciales para el bienestar humano, no están programados en el sistema.

6. Socioeconómico y Ambiental

Daños socioeconómicos y ambientales

El potencial de los sistemas de inteligencia artificial para exacerbar las desigualdades socioeconómicas preexistentes o generar efectos adversos sistémicos sobre el mercado laboral, el desarrollo innovador y la sostenibilidad ambiental

6. Socioeconómico y Ambiental

Definición de uso incompleta

Dada la versatilidad inherente de los modelos fundacionales, el propósito o uso específico para el cual se diseñan resulta crucial al momento de delimitar sus riesgos pertinentes. En consecuencia, si la aplicación de un modelo se modifica o expande, su matriz de riesgos relevante debe ser reevaluada y adaptada de manera proporcional.

6. Socioeconómico y Ambiental

Democracia

El deterioro progresivo de los mecanismos democráticos y la consiguiente pérdida de la confianza ciudadana en las estructuras sociopolíticas de la sociedad.

6. Socioeconómico y Ambiental

Dependencia de proveedores

La concentración de la infraestructura de Inteligencia Artificial en un número reducido de proveedores específicos introduce un riesgo sistémico. Esta dependencia excesiva se manifiesta como una vulnerabilidad crítica, dado que la ausencia de alternativas tecnológicas o la dificultad de establecer la interoperabilidad con otros sistemas (el denominado *vendor lock-in*) compromete la resiliencia y la capacidad de migración ante fallos o cambios en las políticas de dicho proveedor.

6. Socioeconómico y Ambiental

Derechos de autor

El efecto de memorización inherente a los Modelos de Lenguaje de Gran Escala (LLM) permite la extracción de contenidos específicos protegidos por derechos de autor, originalmente presentes en su *corpus* de entrenamiento. Este mecanismo constituye un riesgo directo de exposición y potencial vulneración de la propiedad intelectual.

6. Socioeconómico y Ambiental

Derechos de autor

El *copyright* (o derecho de autor), según la Oficina de Derechos de Autor de EE. UU., constituye una categoría de propiedad intelectual que ampara las obras de autoría original desde el momento en que el autor las fija en un formato tangible de expresión. La naturaleza de la IA generativa implica la producción de contenido basándose en las entradas que recibe. El riesgo fundamental radica en que parte de este contenido puede incorporar o replicar obras originales ya protegidas por la normativa vigente. De ahí la imperativa necesidad de que los usuarios verifiquen el uso legal de la IA generativa para evitar cualquier infracción de derechos de autor. Un segundo eje de debate, de igual relevancia, se centra en la posibilidad de otorgar autoría a la IA. En el contexto legal actual de EE. UU. —aplicado al arte generativo— se ha señalado que estas creaciones carecen de la protección del *copyright* al ser consideradas producto de un agente no humano. Este dilema sobre la autoría de la IA interpela directamente las premisas subyacentes del derecho de autor en torno al concepto de creatividad humana.

6. Socioeconómico y Ambiental

Derechos de Autor - Autoría

El surgimiento de la Inteligencia Artificial generativa plantea serios desafíos a las normas de derechos de autor vigentes. Los debates académicos se centran frecuentemente en tres puntos focales. Primero, las infracciones de la propiedad intelectual que provienen de la recopilación no autorizada de grandes volúmenes de datos de entrenamiento, ya sean textos o imágenes. Segundo, la preocupación de que los modelos generativos memoricen o plagien contenido protegido por derechos de autor. Finalmente, existen interrogantes fundamentales y cruciales sobre la titularidad o propiedad de los contenidos generados por el modelo, la protección de los 'prompts' creativos y, en general, la difuminación de los conceptos tradicionales de autoría.

6. Socioeconómico y Ambiental

Derechos de propiedad intelectual

Uno de los escollos regulatorios más significativos concierne la validez legal y ética de emplear material protegido por derechos de propiedad intelectual para conformar los vastos conjuntos de datos (datasets) que nutren a los modelos de inteligencia artificial.

6. Socioeconómico y Ambiental

Desafíos de derechos de autor (entrenamiento con salida protegida)

Las empresas de Inteligencia Artificial generativa son objeto recurrente de acusaciones por infringir la legislación de derechos de autor. La controversia se centra en el hecho de que sus modelos son entrenados utilizando obras protegidas (una cantidad considerable de documentos y libros) que son incorporadas a los conjuntos de datos sin la debida autorización de los titulares ni el pago de una compensación económica.

6. Socioeconómico y Ambiental

Desafíos de derechos de autor (salida infractora)

Aunque los modelos de Inteligencia Artificial Generativa se conciben para producir resultados novedosos, existe un riesgo intrínseco significativo denominado 'memorización'. Este fenómeno se manifiesta cuando el modelo, en lugar de aprender y abstraer las reglas generales de su inmenso conjunto de datos de entrenamiento, retiene e incorpora fragmentos literales de obras específicas. Consecuentemente, el contenido generado por la herramienta —como una imagen, un bloque de código o un extracto de texto— podría resultar casi idéntico a una de las fuentes originales de entrenamiento. Esta reproducción directa de fragmentos compromete la defensa de la originalidad y expone, tanto al desarrollador como al usuario final, a potenciales litigios por infracción de derechos de autor, ya que la salida no se considera una creación, sino una copia no autorizada de material protegido.

6. Socioeconómico y Ambiental

Desafíos en percibir, medir y reconocer el daño

Los perjuicios derivados de la Inteligencia Artificial suelen manifestarse de forma sutil o con efectos diferidos en el tiempo, lo que obstaculiza significativamente su correcta identificación, su cuantificación precisa y la implementación de soluciones eficaces.

6. Socioeconómico y Ambiental

Desajuste de capacidad del auditor

El desafío de la auditoría en la IA: La complejidad de los sistemas de inteligencia artificial supera, en ocasiones, la capacidad de los auditores para evaluar exhaustivamente todos los requisitos de seguridad, rendimiento y validación. Por ello, un informe que declara el éxito de una auditoría puede proyectar un nivel de confianza injustificado. Esta sobrestimación se debe a dos factores principales: o bien los auditores carecen del conocimiento específico sobre los riesgos concretos que deben someterse a prueba, o bien no disponen de la infraestructura o capacidad para ejecutar un régimen de pruebas suficientemente riguroso.

6. Socioeconómico y Ambiental

Desarrollo de AGI insegura

Los riesgos inherentes a la carrera por el desarrollo de la primera Inteligencia General Artificial (AGI) abarcan desde la precipitación en la creación de una tecnología de baja calidad o intrínsecamente insegura, hasta la exacerbación de conflictos geopolíticos y problemas críticos de control sistémico sobre la tecnología resultante

6. Socioeconómico y Ambiental

Desarrollo Económico Global

Gran parte de la problemática y los desafíos antes mencionados convergen al analizar sus repercusiones socioeconómicas en los países en desarrollo. La fuerza laboral de estas naciones podría enfrentar una retracción de la subcontratación de servicios (*outsourcing*), dado que muchas tareas cognitivas sencillas que se realizaban en países en desarrollo —como, por ejemplo, las de los centros de llamadas— son susceptibles de ser automatizadas mediante los Modelos de Lenguaje de Gran Escala (LLMs). Este fenómeno representa una amenaza económica significativa para las economías de los países más pobres (Georgieva, 2024).

6. Socioeconómico y Ambiental

Desarrollo rápido superando regulación

El ritmo vertiginoso del desarrollo de la inteligencia artificial corre el riesgo de rebasar la capacidad de respuesta y adaptación de los marcos normativos y jurídicos existentes.

6. Socioeconómico y Ambiental

Desestabilización social

Desestabilización Social. Se refiere a la potencial inestabilidad en el cuerpo social, manifestada a través de formas de malestar civil generalizado (como huelgas o manifestaciones masivas), que surge como consecuencia de los impactos socioeconómicos y políticos de la tecnología avanzada y la inteligencia artificial. Los vectores principales incluyen el desplazamiento laboral significativo causado por la automatización, la materialización de resultados algorítmicos injustos o sesgados que exacerban la inequidad, y la proliferación de la desinformación digital que erosiona la cohesión social y la confianza en las instituciones democráticas.

6. Socioeconómico y Ambiental

Desigualdad

En un plano más general, las decisiones erróneas o los sesgos inherentes a las herramientas de inteligencia artificial tienen el potencial de exacerbar la discriminación social o de cimentar disparidades ya existentes

6. Socioeconómico y Ambiental

Desigualdad de ingresos y monopolios

La Inteligencia Artificial Generativa introduce un riesgo bifronte en la estructura socioeconómica: la acentuación de la desigualdad de ingresos a nivel social y la potencial formación de monopolios a nivel de mercado. En el ámbito social, la sustitución de trabajadores con baja cualificación por sistemas de IA generativa podría provocar un aumento del desempleo (Zarifhonarvar, 2023), lo que ensancharía la brecha económica general (Berg et al., 2016). Esta disparidad se polarizará entre aquellos individuos capaces de recualificarse para operar y explotar la IA y quienes permanezcan al margen de esta adaptación. Paralelamente, en el ámbito de mercado, el despliegue efectivo de la IA generativa demanda una inversión colosal en infraestructura computacional a gran escala y vastos volúmenes de datos de entrenamiento. Esta exigencia confiere una ventaja desproporcionada a las grandes corporaciones, impulsando una concentración desigual de recursos y poder que podría cristalizar en el reforzamiento o creación de monopolios en industrias clave (Cheng & Liu, 2023).

6. Socioeconómico y Ambiental

Desigualdad de riqueza

La capacidad de un único individuo para ejercer control sobre un agente de inteligencia artificial avanzado representa una amplificación asimétrica del poder. Este factor podría conducir a una concentración de capacidades y, consecuentemente, a una intensificación significativa de las desigualdades socioeconómicas y la disparidad de riqueza.

6. Socioeconómico y Ambiental

Desigualdad social

Desigualdad social - Aumento de la brecha de estatus o riqueza entre individuos o grupos, causado o amplificado por un sistema tecnológico, que conduce a la pérdida de bienestar y cohesión social/comunitaria y a la desestabilización.

6. Socioeconómico y Ambiental

Desigualdad Socioeconómica

Más allá de la potencial sustitución de la fuerza laboral, la Inteligencia Artificial con Ventaja Económica (IAVE) plantea un riesgo sustancial de exacerbar las disparidades de riqueza. Aquellos individuos o entidades que posean o accedan a estos sistemas podrán automatizar procesos y ejecutar tareas con una eficiencia y celeridad que superarán drásticamente a las capacidades no asistidas. Esta asimetría de productividad, al generar retornos significativamente mayores, podría traducirse en una concentración desproporcionada de capital, intensificando las desigualdades tanto a nivel doméstico como en el panorama geopolítico global.

6. Socioeconómico y Ambiental

Desigualdad y precariedad

El riesgo de que la inteligencia artificial exacerbe las brechas de desigualdad socioeconómica o que induzca una precarización laboral sistémica, resultando en puestos de trabajo inestables o de escaso valor agregado

6. Socioeconómico y Ambiental

Desplazamiento Laboral

Si bien es probable que las aplicaciones de inteligencia artificial virtual desplacen ciertos tipos de trabajo cognitivo humano, los sistemas de IA Embebida o Mejorada (EAI) tienen el potencial de reemplazar o desplazar de forma significativa la mano de obra física. Sin embargo, en el escenario más conservador, la EAI servirá al menos para aumentar y complementar el tipo de tareas que realizan los humanos, redefiniendo la naturaleza del trabajo.

6. Socioeconómico y Ambiental

Desplazamiento laboral - Impacto económico

La preocupación central en la literatura especializada es que los sistemas de inteligencia artificial generativa podrían ejercer un efecto adverso en la economía, con el riesgo potencial de desencadenar un desempleo masivo. Este impacto se proyecta en una amplia gama de campos, desde los servicios de atención al cliente hasta la ingeniería de software y las plataformas de trabajo por encargo (*crowdwork*). A pesar de la creación de nuevas especialidades ocupacionales, como la ingeniería de *prompts*, la inquietud predominante es que la IA generativa exacerbe las desigualdades socioeconómicas y provoque un desplazamiento laboral significativo. Asimismo, se mantiene un debate crucial: ¿inducirá la IA una pérdida de habilidades (*deskilling*) en la fuerza laboral o, alternativamente, generará sustanciales ganancias de productividad al delegarle tareas rutinarias y repetitivas?

6. Socioeconómico y Ambiental

Devaluación del Trabajo y Aumento de la Desigualdad

Un informe de la Casa Blanca advierte que la implementación de la IA se enfoca predominantemente en la *automatización* en detrimento de la *complementación* del trabajo humano. Esta priorización podría conducir a un mercado laboral con menor equidad y menos democrático. A esto se suma que la IA generativa intensifica las disparidades laborales globales preexistentes en su investigación y desarrollo. Históricamente, el desarrollo de la IA ha revelado una marcada asimetría de poder entre quienes entrenan y construyen los modelos, y aquellos que controlan y obtienen ganancias de estas herramientas. Los trabajadores en el extranjero que se dedican al entrenamiento de chatbots —frecuentemente subpagados y reemplazables— o los creadores cuyo contenido digital es absorbido de forma involuntaria en los conjuntos de datos, no participan de los enormes beneficios económicos generados. En cambio, son las corporaciones que explotan esta mano de obra precarizada y el trabajo no remunerado de artistas y creadores de contenido quienes acumulan el capital. El desarrollo de las tecnologías de IA generativa no hace más que profundizar esta disparidad de poder, consolidando un modelo en el que las grandes tecnológicas se benefician a expensas directas de los trabajadores.

6. Socioeconómico y Ambiental

Dificultad para desarrollar métricas de beneficios/daños de asistentes IA

Uno de los desafíos fundamentales en el diseño de asistentes de IA radica en la compleja tarea de establecer métricas objetivas. Es particularmente difícil cuantificar los beneficios o perjuicios específicos que un sistema de asistencia podría generar, sobre todo cuando se considera su impacto a una escala lo suficientemente amplia, abarcando amplios segmentos de la sociedad. La disponibilidad de estos indicadores resulta esencial no solo para una evaluación rigurosa del riesgo inherente al sistema, sino también para constituir una señal de retroalimentación crítica que optimice su proceso de entrenamiento.

6. Socioeconómico y Ambiental

Dinámicas de "el ganador se lo lleva todo"

La intensa competencia en el desarrollo de la Inteligencia Artificial podría culminar en una asimetría de poder, confiriendo ventajas económicas y capacidades de seguridad desproporcionadas a un grupo muy reducido de entidades.

6. Socioeconómico y Ambiental

Diseño de IA

Este concepto se enmarca en la crucial área de la ética de la IA y la gobernanza algorítmica. No solo apunta a las preocupaciones éticas en torno al proceso de creación de la inteligencia artificial, sino que subraya la importancia crítica de quién desarrolla estos sistemas, pues los sesgos introducidos en la fase de diseño —ya sea en los datos de entrenamiento o por la falta de diversidad en los equipos de ingeniería— determinan la equidad, la justicia y la responsabilidad del sistema final, siendo un debate fundamental para su alineación con los valores humanos universales

6. Socioeconómico y Ambiental

Disparate access to benefits due to hardware, software, skills constraints

La disparidad en el acceso a internet, las barreras lingüísticas, la falta de habilidades específicas o los requisitos de *hardware* implican que los Modelos de Lenguaje (ML) no serán igualmente accesibles para todos. Esta brecha tecnológica, al beneficiar de forma desproporcionada a ciertos grupos, corre el riesgo de exacerbar y perpetuar las inequidades a escala global.

6. Socioeconómico y Ambiental

Disrupción de Cohesión Social y Equidad:

El despliegue sistémico de sistemas de inteligencia artificial que replican o amplifican sesgos tiene el potencial de exacerbar la discriminación y los prejuicios sociales preexistentes, escalándolos a niveles inéditos. Paralelamente, la distribución desigual del acceso a las capacidades más avanzadas de la IA podría ensanchar las brechas socioeconómicas y catalizar la formación de nuevas estructuras de estratificación social, poniendo en tensión los cimientos del orden establecido.

6. Socioeconómico y Ambiental

Disrupción de Industrias

La Inteligencia Artificial Generativa (IAG) está en camino de transformar —y en algunos casos, potencialmente reemplazar— aquellos sectores industriales cuyas tareas centrales requieren una menor inversión de creatividad, pensamiento crítico e interacción personal o afectiva. Esto abarca desde la traducción y la corrección de textos hasta la gestión de consultas directas y el análisis de datos. Tal disrupción, un punto clave de la investigación actual (Dwivedi et al., 2023), no es trivial: podría introducir una fase de turbulencia económica y una marcada volatilidad laboral. Sin embargo, en paralelo, la IAG actúa como un poderoso facilitador de nuevos modelos de negocio, gracias a su capacidad intrínseca para personalizar contenido a gran escala, proveer un servicio de conversación de naturaleza humanizada y operar como un asistente inteligente de alta eficiencia.

6. Socioeconómico y Ambiental

Disrupción del mercado laboral

Los economistas señalan la disrupción y el desplazamiento en los mercados laborales como uno de los principales riesgos por los que el rápido avance de la IA podría impactar en la ciudadanía y mermar el bienestar social.

6. Socioeconómico y Ambiental

Disrupción del Mercado Laboral y Desplazamiento Económico:

La automatización acelerada, facilitada por la Inteligencia Artificial de propósito general, plantea el riesgo de un desempleo generalizado en los sectores del trabajo de conocimiento, generando desajustes de habilidades a una velocidad que supera la capacidad de respuesta de los programas de recapacitación laboral. A diferencia de las transiciones tecnológicas históricas, la amplitud de las capacidades de la IA permite impactar simultáneamente a múltiples industrias. Este efecto compuesto podría saturar las redes de seguridad social existentes y desencadenar una inestabilidad económica sistémica, con consecuencias especialmente severas para aquellas regiones cuya fuerza laboral depende en gran medida de puestos susceptibles a la automatización por IA.

6. Socioeconómico y Ambiental

Distribución desigual de daños y beneficios

La naturaleza intrínseca de las industrias basadas en la Inteligencia Artificial sugiere una fuerte propensión al monopolio y la consecuente concentración de ganancias económicas masivas en un número muy reducido de agentes. Este fenómeno se articula mediante un bucle de retroalimentación positiva: los actores que ya poseen un acceso superior a recursos cruciales para la IA (como datos, poder computacional y talento especializado) son capaces de desarrollar productos y servicios más eficaces. Esta superioridad les permite capturar una porción mayor del mercado y, por ende, acumular aún más recursos esenciales, perpetuando y exacerbando su dominio. En paralelo, se proyecta que las naciones con mayor capacidad de inversión en el desarrollo de la IA cosecharán los beneficios económicos a un ritmo significativamente más acelerado que las economías en desarrollo. Esta asimetría tiene el potencial de ampliar la disparidad socioeconómica y tecnológica global.

6. Socioeconómico y Ambiental

Distribución injusta de beneficios por acceso al modelo

Exclusión Digital Algorítmica: Se refiere a la distribución o retención no equitativa de beneficios esenciales hacia grupos poblacionales específicos. Esta disparidad se fundamenta en las restricciones impuestas por el entorno tecnológico (hardware, software), la capacitación del usuario (habilidades digitales), o las condiciones de despliegue del sistema (tales como la velocidad de conexión o la ubicación geográfica), amplificando así la brecha digital preexistente.

6. Socioeconómico y Ambiental

Diversidad demográfica de investigadores

I'm still learning and can't help with that. Do you need help with anything else?

6. Socioeconómico y Ambiental

Economía

En el ámbito de los riesgos económicos asociados a la Inteligencia Artificial, se destacan dos preocupaciones principales. La primera se centra en la potencial alteración del sistema económico global a causa del incremento de las tecnologías de IA y la automatización. Un ejemplo clave es que una integración profunda de la IA en sectores como la manufactura podría inducir un desempleo masivo, lo que conllevaría una disminución en la base de contribuyentes y un impacto negativo significativo en la estabilidad económica (Boyd & Wilson, 2017; Scherer, 2016). El segundo riesgo se vincula a la posible pérdida de control y conocimiento institucional sobre los procesos organizacionales, a medida que los sistemas de IA asumen progresivamente una cantidad mayor de tareas, reemplazando al personal humano que tradicionalmente las ejecutaba.

6. Socioeconómico y Ambiental

Economía

La inteligencia artificial proyecta un incremento en el Producto Interno Bruto (PIB) per cápita, impulsado por una mayor eficiencia operativa y la capacidad de paliar la escasez de mano de obra en poblaciones envejecidas. El contrapunto a esta promesa reside en el riesgo de que la automatización sustituya una amplia gama de empleos de ingresos bajos e intermedios, lo que podría resultar en una crisis de desempleo a gran escala.

6. Socioeconómico y Ambiental

Economía

Las disrupciones económicas en el contexto de la inteligencia artificial abarcan un espectro de riesgos sistémicos. Estos se extienden desde alteraciones profundas en la dinámica del mercado laboral —como la automatización a gran escala de tareas— hasta transformaciones económicas de índole más amplia. Específicamente, estas transformaciones podrían resultar en una marcada exacerbación de la desigualdad de la riqueza, generando inestabilidad estructural en el sistema financiero global o facilitando nuevas modalidades de explotación laboral. En términos concisos, se refieren a cualquier impacto económico significativo que socave la estabilidad o la equidad social.

6. Socioeconómico y Ambiental

Ecosistema y Medio Ambiente

Los impactos de alto nivel, que se extienden desde el ecosistema de la IA hasta el propio planeta Tierra, son intrínsecamente amplios, pero deben descomponerse en componentes evaluables para su análisis.

6. Socioeconómico y Ambiental

Efectos en la Desigualdad

Los Modelos de Lenguaje Grande (LLMs) tienen el potencial de exacerbar las desigualdades socioeconómicas. Si bien el vínculo con la fuerza laboral es claro, la clave reside en cómo se distribuyen los beneficios de este avance tecnológico, lo que se articula en tres mecanismos principales:1. **Diferencia Capital-Trabajo**. Si en una economía impulsada por LLMs se incrementa la participación y la remuneración del capital, mientras que disminuyen las del trabajo, la desigualdad podría aumentar. Esto se debe a que la actividad laboral sigue siendo la principal fuente de ingresos para la mayoría de la población. 2. **Monopolio Algorítmico**. El elevado coste fijo de entrenar LLMs de vanguardia, sumado a los efectos de red inherentes, inclina el mercado hacia una estructura de monopolio natural. Este fenómeno ha sido conceptualizado en la literatura como 'monocultivo algorítmico'. Como resultado, unos pocos desarrolladores acumulan un poder de mercado significativo, lo que puede derivar en una reducción del bienestar social y permitir a estos proveedores extraer rentas monopolísticas de sus usuarios y clientes. 3. **Brecha de Acceso**. A medida que los LLMs se vuelven más potentes, la cuestión de quién tiene y quién no tiene acceso se vuelve crítica. Por ejemplo, se ha demostrado que herramientas como las de codificación automatizada ofrecen ganancias de productividad superiores al 50%. Los individuos sin acceso a estas herramientas —ya sea por barreras financieras, educativas, políticas corporativas o gubernamentales, o razones geopolíticas— se enfrentarán a una desventaja competitiva cada vez mayor en el mercado.

6. Socioeconómico y Ambiental

Efectos en la Fuerza Laboral

Los rápidos avances en los Modelos de Lenguaje Grande (LLMs) plantean tres conjuntos diferenciados de desafíos para los ingresos de los trabajadores (Korinek y Stiglitz, 2019; Susskind, 2023). En primer lugar, es probable que se acelere la tasa de rotación y disrupción laboral. Este fenómeno afectará a un mayor número de trabajadores, incluyendo a aquellos con alta cualificación, lo que dificultará el proceso de ajuste social en comparación con las transiciones tecnológicas anteriores. En segundo lugar, si bien el progreso tecnológico podría generar una mayor riqueza social en general, existe el riesgo de que la naturaleza de propósito general de los LLMs propicie un avance sesgado en contra del factor trabajo. Esto implicaría que la proporción de la riqueza generada que se destina a los trabajadores podría declinar. En tercer lugar, si los futuros LLMs y la robótica progresan hasta el punto de poder ejecutar virtualmente todas las tareas laborales, la disrupción en los mercados de trabajo sería de carácter fundamental: si las máquinas pueden realizar el trabajo humano, los salarios tenderían a caer hasta igualar el coste de uso de la máquina (o el coste de usuario) (Korinek y Juelfs, 2023). Esta convergencia salarial plantearía retos esenciales para la dinámica laboral y la distribución de la renta (Korinek, 2023).

6. Socioeconómico y Ambiental

Efectos transformadores

La implementación de la IA Existencial (IAE) conlleva el riesgo de una reestructuración fundamental de la sociedad, un escenario particularmente probable si el ritmo del avance tecnológico supera la capacidad de adaptación de las estructuras sociales. Específicamente, existe la preocupación de que estos sistemas puedan ser instrumentalizados para potenciar el autoritarismo. Esto se manifestaría a través de la provisión de amenazas físicas de violencia y el desarrollo de vastas capacidades de vigilancia masiva, elementos que consolidarían regímenes políticos habilitados y respaldados por la IA.

6. Socioeconómico y Ambiental

El poder corporativo puede impedir una gobernanza efectiva

La creciente influencia y poder de las grandes corporaciones tecnológicas dificultan una gobernanza efectiva de los Modelos de Lenguaje de Gran Escala (LLM). Esto genera una marcada asimetría de poder: por un lado, las entidades corporativas que obtienen enormes beneficios de los LLM, y por otro, grupos sociales como la sociedad civil. Dado que los LLM más avanzados son desarrollados por las mayores empresas tecnológicas privadas, existe un riesgo tangible de que los protocolos de gobernanza se diseñen de manera excesivamente favorable a estas compañías. Este fenómeno, conocido como "captura regulatoria", podría concretarse a expensas de los intereses de otros grupos sociales, afectando particularmente a las comunidades marginadas, históricamente las más perjudicadas por diseños deficientes de tecnologías de inteligencia artificial.

6. Socioeconómico y Ambiental

Emisiones de carbono

Emisiones de Carbono: Consiste en la liberación de dióxido de carbono (CO2), óxido nítrico y otros gases a la atmósfera. Este fenómeno eleva la concentración de gases de efecto invernadero, acelerando el calentamiento global y agravando el cambio climático, lo cual repercute negativamente en el entorno y en la estabilidad de las comunidades locales.

6. Socioeconómico y Ambiental

Environmental harms from operation LMs

El despliegue de modelos de aprendizaje automático a gran escala, incluidos los Modelos de Lenguaje (ML), acarrea la posibilidad de generar costes ambientales significativos. Estos se concretan en tres áreas críticas: la ingente demanda de energía, las consecuentes emisiones de carbono derivadas de su entrenamiento y operación, y el sustancial requerimiento de agua dulce para la refrigeración de los centros de datos donde se ejecutan los procesos computacionales (Mytton, 2021; Patterson et al., 2021)

6. Socioeconómico y Ambiental

Environmental impacts

El campo de la **Seguridad de la Inteligencia Artificial (AI Safety)** es una disciplina esencial y de carácter interdisciplinario centrada en garantizar que el diseño y el despliegue de los sistemas de IA beneficien a la humanidad y minimicen cualquier potencial de daño o consecuencias no intencionadas. Su propósito fundamental no es solo la prevención de fallos técnicos, sino la gestión proactiva de riesgos sistémicos y sociales. Para entender la complejidad de esta investigación, es útil desglosar sus objetivos principales en conceptos accesibles: - **Alineamiento (Alignment):** Este es el principio rector para asegurar que las metas y el comportamiento de un sistema de IA permanezcan consistentemente alineados con los valores, objetivos y estándares éticos humanos. Aborda la dificultad crítica de programar intenciones complejas, buscando que la IA no persiga objetivos que, aunque lógicos desde su perspectiva, resulten ineficaces o perjudiciales para la sociedad. - **Robustez (Robustness):** Implica construir sistemas que sean inherentemente confiables, estables y predecibles en un amplio espectro de condiciones, incluyendo situaciones imprevistas, datos erróneos o manipulaciones maliciosas. Su objetivo es que el rendimiento del sistema no se degrade ni se desvíe peligrosamente, incluso bajo ataques adversarios o vulnerabilidades como la *inyección de prompts*. - **Transparencia y Gobernanza (Transparency and Governance):** Se refiere a la necesidad de diseñar la IA para que sus procesos de toma de decisiones sean comprensibles y auditables por humanos, facilitando la explicabilidad (eliminando la "caja negra") y la trazabilidad. Esto es crucial para establecer mecanismos claros de **Rendición de Cuentas (Accountability)**, asegurando que los desarrolladores y operadores puedan ser responsables por los resultados del sistema.

6. Socioeconómico y Ambiental

Environmental impacts

La intensificación del uso de sistemas de inteligencia artificial, y sus crecientes demandas energéticas, podría generar impactos medioambientales significativos. La magnitud de estos riesgos se incrementará conforme la capacidad de la IA avance.

6. Socioeconómico y Ambiental

Estructural

Los riesgos estructurales se enfocan en la dinámica de interacción recíproca y la interdependencia entre las tecnologías de Inteligencia Artificial y los entornos (socioeconómicos, políticos o institucionales) en los que se conciben y despliegan. Analizan el doble proceso: cómo la propia tecnología de IA reconfigura o moldea las estructuras de la sociedad, y cómo, simultáneamente, estas estructuras preexistentes condicionan la dirección y las características del desarrollo de la IA.

6. Socioeconómico y Ambiental

Ethical Risks (Risks of exacerbating social discrimination and prejudice, and widening the intelligence divide)

La Inteligencia Artificial posee la capacidad de recopilar y analizar de manera exhaustiva el comportamiento humano, el estatus socioeconómico y las características individuales de la personalidad. Este proceso puede conducir a la clasificación y etiquetado de grupos poblacionales, facilitando la aplicación de un trato sesgado. La consecuencia directa es la consolidación de prejuicios y una discriminación social con implicaciones sistemáticas y estructurales. A su vez, este fenómeno contribuye a exacerbar la 'brecha de inteligencia' o brecha digital de capacidades entre las distintas regiones

6. Socioeconómico y Ambiental

Evaluaciones Generales (Cobertura limitada de capacidades)

La evaluación de modelos de IA de Propósito General (GPAI) es un proceso crucial antes de su despliegue, cuyo objetivo es identificar capacidades peligrosas o de doble uso. Sin embargo, estas pruebas de seguridad presentan un desafío inherente: la imposibilidad de garantizar una detección exhaustiva de todas las capacidades del modelo. Esta limitación se debe a varios factores críticos: la dificultad intrínseca para medir ciertas habilidades, el costo prohibitivo de verificar exhaustivamente cada vector de riesgo, o, irónicamente, el propio entrenamiento de seguridad del modelo que puede llevarlo a ocultar (por rechazo a responder) precisamente las capacidades de riesgo que se buscan evaluar. En consecuencia, el hecho de que una evaluación no demuestre una capacidad peligrosa no significa necesariamente que el modelo no la posea.

6. Socioeconómico y Ambiental

Evaluaciones Generales (Evaluaciones sesgadas de valores humanos)

El proceso de alineación de valores humanos en modelos de Inteligencia Artificial presenta un riesgo inherente de sesgo métrico. Existe una propensión a priorizar, durante la evaluación, aquellos valores que resultan más sencillos de codificar y cuantificar (por ejemplo, métricas directas). Esta facilidad de medición se impone a menudo sobre valores que son intrínsecamente más deseables o éticamente superiores, pero cuya complejidad dificulta su cuantificación (por ejemplo, conceptos holísticos de justicia o bienestar). El resultado es un desequilibrio sistémico: los valores de fácil medición terminan dominando el proceso evaluativo, mientras que principios cruciales para una IA robusta permanecen marginados o insuficientemente representados.

6. Socioeconómico y Ambiental

Exacerbación del Cambio Climático

El ámbito en expansión de la Inteligencia Artificial Generativa acarrea repercusiones directas y significativas sobre nuestro clima. La IA generativa implica una considerable huella de carbono y un análogo coste de recursos energéticos que, en gran medida, elude la atención del debate público sobre la tecnología. El entrenamiento y la operación de estas herramientas exigen a las corporaciones un consumo ingente de energía y recursos materiales. Para dimensionar su impacto: el proceso de entrenamiento de un único modelo de procesamiento de lenguaje natural, bajo condiciones estándar de ajuste y experimentación, emite, en promedio, una cantidad de carbono equivalente a la generada por siete personas a lo largo de un año completo.

6. Socioeconómico y Ambiental

Exacerbación del Poder de Mercado y Concentración

Las principales empresas tecnológicas han acaparado el desarrollo de la IA generativa. Esto se debe a que el entrenamiento de estos modelos demanda una concentración masiva de recursos, incluyendo vastas cantidades de datos, gran potencia computacional, y un alto nivel de inversión técnica y financiera.

6. Socioeconómico y Ambiental

Exclusión

La vanguardia de la inteligencia artificial exige una triada de recursos masivos: ingentes volúmenes de datos, una gran capacidad de cómputo y la pericia de expertos humanos. Existe el riesgo intrínseco de que esta concentración de requisitos lleve a que el desarrollo y el control de la IA recaiga en muy pocos agentes. Por consiguiente, la mayoría de la sociedad podría quedar excluida de sus beneficios, exacerbando la desigualdad en el acceso a esta tecnología transformadora

6. Socioeconómico y Ambiental

Explotación en el desarrollo de IA

La externalización de tareas esenciales para la IA, como el etiquetado de datos, a naciones de bajos ingresos es un riesgo que puede exacerbar y perpetuar las desigualdades socioeconómicas a nivel global

6. Socioeconómico y Ambiental

Explotación humana

Riesgo ético y social derivado de la precarización laboral de los 'trabajadores fantasma' o etiquetadores de datos. Se materializa cuando el personal esencial para el entrenamiento de la Inteligencia Artificial carece de condiciones de trabajo dignas, una compensación económica equitativa y acceso a beneficios de salud integral que incluyan el bienestar mental.

6. Socioeconómico y Ambiental

Explotación laboral

Explotación Laboral: El uso sistemático de mano de obra subremunerada o localizada en el extranjero (deslocalizada o "offshore") con el fin de desarrollar, gestionar o perfeccionar un sistema tecnológico

6. Socioeconómico y Ambiental

Explotación laboral

Esta categoría de riesgo aborda la **explotación laboral** que sostiene la infraestructura de la inteligencia artificial. Se refiere concretamente al **uso o mal uso de la fuerza laboral humana** —a menudo en condiciones de subremuneración y a través de la **deslocalización** (*offshoring*) a regiones con costes laborales bajos— para realizar tareas que son fundamentales para el ciclo de vida de un sistema tecnológico. Estas tareas incluyen el etiquetado y curación de datos (la 'limpieza' de los datos), la moderación de contenidos o el refinamiento interactivo de modelos (el llamado *Human-in-the-Loop*). En esencia, es el riesgo de cimentar el progreso de la IA en una cadena de suministro de trabajo oculta y éticamente cuestionable.

6. Socioeconómico y Ambiental

Fallo del auditor

La transparencia en los procesos de auditoría se ve comprometida por diversos factores. Es posible que los auditores no puedan divulgar abiertamente los riesgos detectados, ya sea por restricciones regulatorias que exigen silenciar las deficiencias, o por la falta de colaboración y apoyo adecuado por parte de los equipos internos pertinentes.

6. Socioeconómico y Ambiental

Fallos de combinación

Los perjuicios potenciales pueden surgir de la confluencia sistémica de fallos en el ámbito normativo, deficiencias en la gestión y errores en la ejecución operativa.

6. Socioeconómico y Ambiental

Falta de diversidad en pruebas

Los riesgos inherentes a los modelos de Inteligencia Artificial son de naturaleza sociotécnica. Por consiguiente, su proceso de validación y prueba requiere integrar el conocimiento de un amplio espectro de disciplinas académicas y adoptar un conjunto diverso de prácticas de evaluación

6. Socioeconómico y Ambiental

Falta de rendición de cuentas y responsabilidad

La proliferación de sistemas físicos altamente autónomos, impulsados por la Inteligencia Artificial Experta (EAI), plantea un desafío fundamental a la jurisprudencia: la determinación de la **responsabilidad** legal ante un daño. Esto exige urgentemente la articulación de nuevos **marcos de rendición de cuentas y responsabilidad civil** capaces de gestionar la complejidad inherente a la alta autonomía. La problemática se intensifica cuando los usuarios humanos, a pesar de la pericia del sistema EAI, discrepan de sus decisiones, lo que suscita profundas interrogantes sobre la **delegación de autoridad** y los límites de la **responsabilidad** humana. En última instancia, la falta de claridad en la rendición de cuentas del EAI no solo podría generar desorientación en los usuarios, sino también provocar un colapso en la capacidad de los **sistemas de justicia tradicionales** para asignar culpas de manera coherente y efectiva.

6. Socioeconómico y Ambiental

Falta de transparencia de datos

La opacidad en la transparencia de los datos—un pilar crucial para la auditabilidad de los sistemas de IA—es consecuencia directa de una documentación insuficiente o ausente de los detalles relativos a los conjuntos de datos de entrenamiento o de ajuste fino del modelo.

6. Socioeconómico y Ambiental

Falta de transparencia del sistema

La carencia de documentación adecuada referente tanto al sistema integral que emplea el modelo de inteligencia artificial como a la función específica y el objetivo operativo de dicho modelo dentro de ese marco sistémico.

6. Socioeconómico y Ambiental

Falta de transparencia en datos de entrenamiento

La ausencia de una documentación rigurosa sobre el origen, la curación y el empleo de los datos utilizados en el entrenamiento de un modelo de IA complica significativamente la tarea de explicar su comportamiento. En esencia, sin un registro transparente de la procedencia de los datos, resulta extremadamente difícil justificar de forma satisfactoria por qué el modelo actúa de una determinada manera en relación con la información que ha procesado.

6. Socioeconómico y Ambiental

Faster scientific progress makes it harder for governance to keep pace with development

Un factor que agrava estos desafíos es que el rápido progreso científico dificulta enormemente que los marcos de gobernanza puedan mantener el ritmo de implementación de nuevas tecnologías. Cuando estas innovaciones son excepcionalmente potentes o peligrosas, la gobernanza insuficiente magnifica sus potenciales perjuicios. Este desfase se conoce formalmente como el 'problema de la cadencia' (*pacing problem*), una dificultad inherente que la regulación tecnológica ya enfrenta.

6. Socioeconómico y Ambiental

Gestión inadecuada de la AGI

La capacidad de los marcos regulatorios y los procesos de gestión de riesgos actuales para abordar y contener los desafíos y amenazas inherentes al desarrollo de la Inteligencia General Artificial (IGA).

6. Socioeconómico y Ambiental

Gobernanza

La Inteligencia Artificial Generativa (IAG) introduce nuevos riesgos y consecuencias no intencionadas, forzando a corporaciones, universidades y gobiernos a desarrollar e implementar estrategias sólidas de gobernanza de la IA. Para asegurar que la IAG funcione en beneficio de la sociedad, esta gobernanza es crucial. No obstante, su implementación enfrenta desafíos estructurales significativos. En primer lugar, los sistemas de *machine learning* operan con algoritmos opacos y resultados a menudo impredecibles, lo que impide el control humano sobre su comportamiento y complica la asignación de responsabilidad legal y rendición de cuentas por cualquier defecto. En segundo lugar, la fragmentación de los datos y la falta de interoperabilidad entre sistemas obstaculizan la correcta gobernanza de la información tanto dentro como entre organizaciones. Finalmente, existe una profunda asimetría de la información entre los gigantes tecnológicos y los organismos reguladores. Esta brecha informativa limita la capacidad del gobierno para legislar eficazmente sobre la IA y, por consiguiente, impide a los legisladores diseñar normas y deberes específicos y detallados para los programadores.

6. Socioeconómico y Ambiental

Gobernanza

La naturaleza intrínsecamente compleja y el ritmo acelerado de evolución de los sistemas de inteligencia artificial plantean un desafío fundamental para su gobernanza efectiva, lo que se traduce en una vulnerabilidad sistémica ante fallos de regulación y supervisión.

6. Socioeconómico y Ambiental

Gobernanza de sistemas de inteligencia autónoma

La **gobernanza de sistemas de inteligencia autónoma** aborda el desafío fundamental de cómo controlar y dirigir eficazmente a los sistemas autónomos en general. Un problema central es que, en la actualidad, resulta notoriamente difícil dilucidar y auditar las decisiones automatizadas impulsadas por IA, razón por la cual a menudo se las conceptualiza como una **'caja negra'** (*black box*) (Bleicher, 2017). El riesgo inherente a esta falta de transparencia es que la 'caja negra' podría ejecutar acciones no intencionadas o imprevisibles, acarreando consecuencias potencialmente dañinas para el bienestar humano.

6. Socioeconómico y Ambiental

Igualdad y desigualdad

El auge de la tecnología de asistentes de Inteligencia Artificial (IA) plantea serios riesgos de profundizar la desigualdad social, un fenómeno que merece una atención rigurosa y se articula a través de varios ejes interconectados. Existe una Disparidad en el Acceso debido al costo del servicio, que beneficia a los individuos con mayor poder adquisitivo, y a las limitaciones de infraestructura. La conectividad deficiente o la ausencia de centros de datos cercanos crean un acceso heterogéneo a la tecnología, un factor conocido por impulsar la desigualdad. A nivel laboral, la capacidad de la IA para automatizar tareas asistenciales conlleva el riesgo de Desplazamiento Laboral de trabajadores humanos, lo que puede exacerbar las brechas económicas ya existentes. Quizás el riesgo más sutil reside en los Efectos en la Interacción Social. Al mediar la comunicación humana, la IA puede generar una polarización social creando un 'grupo interno' (usuarios de IA) que encuentra más fácil coordinar y colaborar, y un 'grupo externo' (no usuarios). Esto propicia un sesgo de similitud cognitiva donde se favorece al grupo interno, socavando la confianza y la equidad intergrupal. Finalmente, la Amplitud de las Capacidades de la IA magnifica su impacto. A diferencia de innovaciones previas que facilitaban una tarea específica, los asistentes de IA ofrecen ventajas simultáneas en múltiples dimensiones de la vida (gestión de citas, trabajo, ocio). Esta capacidad de afectar la desigualdad en diversos frentes a la vez garantiza una mayor atención a sus implicaciones sociales.

6. Socioeconómico y Ambiental

Impacto Ambiental y Social

La investigación se centra en el espectro completo de las consecuencias sociales de la Inteligencia Artificial. Esto incluye desde las disrupciones en el mercado laboral y el impacto potencial en la salud mental, hasta los desafíos éticos que plantean las tecnologías de manipulación, como los *deepfakes*. Paralelamente, se analiza la huella ecológica de la IA, equilibrando el consumo masivo de recursos y las emisiones de carbono derivadas del entrenamiento algorítmico con el potencial que tiene la propia tecnología para ofrecer soluciones a problemas medioambientales.

6. Socioeconómico y Ambiental

Impacto en Derechos de Propiedad Intelectual

El auge de la Inteligencia Artificial generativa ha reabierto el debate sobre la validez y el alcance de la protección legal de la propiedad intelectual. Esto se debe a que dichos sistemas se nutren de vastos conjuntos de datos para su entrenamiento, muchos de los cuales contienen obras protegidas por derechos de autor

6. Socioeconómico y Ambiental

Impacto en diversidad cultural

La *Homogeneización Cultural por IA* es el riesgo sistémico en el que los sistemas de Inteligencia Artificial, al estar sesgados por la sobrerrepresentación de datos provenientes de culturas dominantes, estandarizan y replican exclusivamente dichos patrones. Esto provoca una gradual erosión de la diversidad cultural y del pensamiento a escala global, ya que las narrativas, estilos artísticos y soluciones de la IA suprimen o ignoran las expresiones y conocimientos locales. El resultado es una uniformidad cultural que reduce la adaptabilidad y resiliencia de las comunidades frente a cambios ambientales o sociales.

6. Socioeconómico y Ambiental

Impacto en el medio ambiente

La implementación y el funcionamiento de la inteligencia artificial, sobre todo los grandes modelos generativos, plantean un desafío medioambiental: su entrenamiento y operación podrían elevar las emisiones de carbono e incrementar notablemente el consumo de agua.

6. Socioeconómico y Ambiental

Impacto en Empleos

La implementación masiva de sistemas de Inteligencia Artificial basados en modelos fundacionales proyecta una disrupción en el mercado laboral, evidenciada en la posible pérdida de puestos de trabajo que resultaría de la automatización de funciones, a menos que se implementen políticas robustas y oportunas de recapacitación y reconversión profesional.

6. Socioeconómico y Ambiental

Impacto en mercados laborales (desigualdades crecientes)

La probabilidad de que la Inteligencia Artificial desplace a los trabajadores es más alta cuando su desarrollo se enfoca en replicar directamente las habilidades y la inteligencia humana. Este fenómeno introduce un riesgo significativo de concentrar el capital, la riqueza y el poder en un grupo reducido de organizaciones o individuos. Como resultado, el valor de las personas, incluso de profesionales altamente cualificados, puede verse disminuido, ya que las máquinas ejecutarían sus roles. Esta transición no solo podría reducir los salarios y el valor percibido del trabajo humano, sino que también tiene el potencial de agravar sustancialmente la desigualdad económica.

6. Socioeconómico y Ambiental

Impacto en mercados laborales (pérdida de empleo)

En la actualidad, una proporción considerable de la fuerza laboral (tres de cada cinco trabajadores) manifiesta su inquietud ante la posibilidad de que la Inteligencia Artificial (IA) elimine completamente sus puestos de trabajo en la próxima década, una preocupación que es particularmente palpable entre quienes ya interactúan con estas tecnologías. De hecho, diversas investigaciones sugieren que las herramientas de IA (tanto generativas como no generativas) podrían generar una reducción sustancial de empleos. En este sentido, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) estima que las profesiones con mayor riesgo de sucumbir a la automatización impulsada por la IA representan aproximadamente el 27% del total de empleo.

6. Socioeconómico y Ambiental

Impactos Ambientales

La fabricación de esta tecnología demanda volúmenes de materiales críticos (como el níquel, el cobalto y el litio) que podrían exceder la capacidad de suministro sostenible del planeta en el corto o mediano plazo.

6. Socioeconómico y Ambiental

Impactos Ambientales

Consecuencias ambientales del alto consumo de recursos computacionales (energía y hardware) que implica el entrenamiento y la operación de modelos de IA Generativa, con potenciales impactos adversos en los ecosistemas

6. Socioeconómico y Ambiental

Impactos políticos desestabilizadores de sistemas de IA

Por ejemplo, la IA impacta en la gobernanza interna (como la polarización y la legitimidad electoral), la economía política internacional, y especialmente, en la seguridad global. Esta última área se examina en función de cómo la tecnología afecta el equilibrio de poder, dinamiza las carreras armamentísticas y tecnológicas, incide en la estabilidad internacional y redefine la velocidad y el carácter de la guerra

6. Socioeconómico y Ambiental

Imprevisibilidad de la trayectoria de desarrollo de IA

La velocidad vertiginosa y la naturaleza fundamentalmente emergente de la IA generan una trayectoria de desarrollo intrínsecamente impredecible. Esto dificulta enormemente la creación de marcos de gobernanza y estrategias de gestión de riesgos capaces de anticipar peligros aún no manifestados.

6. Socioeconómico y Ambiental

Inestabilidad política

La inestabilidad política, en este contexto, se refiere a la polarización o el malestar social causados o exacerbados por sistemas tecnológicos. Estas tecnologías pueden contribuir a un aumento de la desigualdad, la pérdida masiva de empleos o una excesiva dependencia que haga a las sociedades vulnerables a fallos sistémicos. Es decir, el uso o mal uso de un sistema tecnológico actúa como catalizador o amplificador de tensiones políticas y sociales preexistentes.

6. Socioeconómico y Ambiental

Inestabilidad política

Desestabilización sociopolítica o disturbios civiles que tienen su origen, directo o indirecto, en el funcionamiento o la mala utilización de un sistema tecnológico

6. Socioeconómico y Ambiental

Inexactitud de Benchmark (Evaluación inexacta)

Las pruebas de rendimiento (benchmarks) de los sistemas de inteligencia artificial pueden tanto infravalorar como sobrevalorar sus capacidades efectivas. La infravaloración surge si la evaluación es incompleta, si el benchmark está saturado por modelos existentes, o si las capacidades dependen de una configuración compleja como tareas de programación realistas; en contraste, la sobrevaloración se produce cuando el sistema es entrenado o ajustado directamente con los datos de la prueba, un fenómeno conocido como sobreajuste o *overfitting*.

6. Socioeconómico y Ambiental

Inexactitud de Benchmark (Saturación)

El concepto de saturación de *benchmarks* describe una situación crítica: el momento en que las métricas de evaluación para modelos de inteligencia artificial alcanzan su techo de rendimiento. Este fenómeno implica que los modelos ya obtienen puntuaciones máximas o cercanas a ellas, lo que anula la capacidad del test para diferenciar el progreso. Una vez que la saturación ocurre, el *benchmark* pierde su utilidad como medida efectiva, ya que las ganancias de capacidad más sutiles o matizadas en los nuevos sistemas de IA no pueden ser detectadas, obstaculizando la evaluación precisa de su avance

6. Socioeconómico y Ambiental

Infracción de derechos de autor

El uso de vastas cantidades de datos con derechos de autor para entrenar modelos de Inteligencia Artificial de propósito general representa un desafío fundamental para las leyes tradicionales de propiedad intelectual y para los sistemas establecidos de consentimiento, compensación y control sobre los datos. Es altamente probable que la utilización masiva de datos protegidos por parte de las organizaciones que desarrollan este tipo de IA altere significativamente los incentivos económicos y sociales que rigen la expresión creativa.

6. Socioeconómico y Ambiental

Infracción de derechos de autor

Este concepto se define como el Riesgo de Infracción Algorítmica de Propiedad Intelectual. Surge cuando un modelo generativo, al operar, produce una salida que es sustancialmente similar o idéntica a material preexistente que se encontraba en su conjunto de datos de entrenamiento. Específicamente, este riesgo legaliza la reproducción de obras protegidas por derechos de autor (copyright) o regidas por acuerdos de licencia de código abierto, lo que genera responsabilidades para los desarrolladores o usuarios del modelo.

6. Socioeconómico y Ambiental

Infracción de Propiedad Intelectual (PI)

La explotación no autorizada de la propiedad intelectual de un individuo

6. Socioeconómico y Ambiental

Intencional: socialmente aceptado/legal

Diseño de IA para infligir perjuicio a animales, replicando y amplificando prácticas nocivas que ya son socialmente aceptadas o legalmente permitidas.

6. Socioeconómico y Ambiental

Intencional: socialmente condenado/ilegal

Numerosos perjuicios intencionados hacia los animales (como el confinamiento, ciertos procedimientos de cría o el sacrificio) son legales o socialmente aceptados. En contraste, otros actos (como el tráfico de fauna silvestre o la violencia contra animales de compañía) son condenados y a menudo ilegales. Dado que la IA puede ser adoptada por humanos para facilitar ambos tipos de daño con mayor eficacia, nuestra investigación establece una distinción fundamental: separamos los daños intencionados facilitados por la IA que son social o legalmente aceptados de aquellos usos y abusos de la IA que causan perjuicios que son socialmente inaceptables y, frecuentemente, ilícitos.

6. Socioeconómico y Ambiental

Job loss/losses

Pérdida de Empleo por Automatización: Consiste en la sustitución o el desplazamiento de puestos de trabajo humanos por sistemas tecnológicos. Este proceso puede provocar una escalada del desempleo estructural, exacerbar la desigualdad económica al concentrar la riqueza, disminuir la capacidad de gasto general del consumidor y, consecuentemente, generar tensiones y fricciones significativas en el tejido social.

6. Socioeconómico y Ambiental

Jurisprudencia de la IA

Al examinar los marcos regulatorios, observamos que, hasta la fecha, la literatura especializada no ha identificado un esquema legal capaz de asignar directamente culpa y responsabilidad a un agente autónomo por los actos que este comete. Sin embargo, este es un campo en evolución. La reciente legislación en torno a los vehículos autónomos, por ejemplo, podría servir como un modelo preliminar que merece ser evaluado a futuro en términos de su eficacia y de las lagunas que presenta. Por el momento, la discusión legal se apoya en gran medida en las leyes de responsabilidad y negligencia ya establecidas, las cuales suelen aplicar la imputación de la acción al fabricante o al operador del dispositivo.

6. Socioeconómico y Ambiental

Justicia social y derechos

Se trata de un conjunto de riesgos asociados a la justicia social y los derechos fundamentales, donde el impacto de modelos como ChatGPT podría socavar los cimientos morales de la sociedad, afectando nuestra concepción compartida de justicia y equidad distributiva. Conceptos clave a considerar incluyen la ampliación de las brechas digitales y la exclusión social. El análisis se centra en elementos esenciales como la Responsabilidad, la Rendición de Cuentas, la No Discriminación y el Trato Equitativo, además de consideraciones de Justicia Norte-Sur, Justicia Intergeneracional y el fomento de una Inclusión Social efectiva.

6. Socioeconómico y Ambiental

Ley de Responsabilidad de Productos

Los modelos de inteligencia artificial generativa, al igual que productos manufacturados como refrescos o productos farmacéuticos, pueden entenderse como una nueva clase de "productos digitales" desarrollados por empresas tecnológicas, con el potencial de generar daños a gran escala. La doctrina de la **responsabilidad por productos defectuosos** surgió para abordar los perjuicios causados por la producción masiva de tecnologías como los automóviles y la maquinaria industrial. La pregunta fundamental que enfrenta el sistema legal es si esta teoría tradicional puede aplicarse de manera efectiva a los daños causados por la IA generativa. Las respuestas son mixtas: por un lado, en el caso *Rodgers v. Christie* (2020), se dictaminó que un modelo de riesgo automatizado no era un "producto" porque carecía de la naturaleza de "propiedad personal tangible distribuida comercialmente". Sin embargo, en *Gonzalez v. Google* (2021), un juez argumentó que las redes sociales sí "venden" sus productos a través de la publicidad forzada a sus usuarios. A medida que la IA se vuelva más sofisticada y sus daños (a menudo generados automáticamente sin intervención humana directa) se vuelvan más prominentes, los tribunales se verán obligados a reevaluar y modernizar la concepción de la responsabilidad por productos, tradicionalmente centrada en artículos mecánicos y tangibles, para adaptarla a las realidades del mundo digital actual.

6. Socioeconómico y Ambiental

Ley y Regulación de la IA

Esta área se centra en la **regulación de la Inteligencia Artificial (IA)**, apoyándose en mecanismos de control ya establecidos para otras aplicaciones tecnológicas, tales como **leyes, estándares y normas**. Sin embargo, la naturaleza de la IA plantea **desafíos singulares** que deben ser abordados en el futuro inmediato. Entre estos destacan la **gobernanza efectiva de los sistemas de inteligencia autónoma**, la definición de la **responsabilidad y rendición de cuentas (accountability)** asociada al comportamiento algorítmico, y la garantía de la **privacidad y seguridad de los datos** que estos sistemas gestionan.

6. Socioeconómico y Ambiental

Los accidentes son difíciles de evitar

Este tipo de riesgo se caracteriza por su potencial de **escalamiento catastrófico**—donde los fallos se encadenan—, su origen en **fenómenos emergentes** o desarrollos repentinos impredecibles, y la **latencia** en la detección de fallas o vulnerabilidades severas, proceso que puede extenderse por años.

6. Socioeconómico y Ambiental

Loss of creativity/critical thinking

Pérdida de Creatividad y Pensamiento Crítico - Devaluación y/o deterioro progresivo de las capacidades cognitivas esenciales del ser humano, que incluyen la creatividad, la expresión artística, la imaginación, el pensamiento crítico y las destrezas fundamentales para la resolución de problemas.

6. Socioeconómico y Ambiental

Madurez Tecnológica

El nivel de madurez tecnológica describe la solidez y el nivel de ausencia de errores de una tecnología específica dentro de un contexto de aplicación determinado. Cuando se emplean tecnologías incipientes con baja madurez en el desarrollo de un sistema de IA, se introducen riesgos que, por su novedad, resultan difíciles de evaluar o son incluso completamente desconocidos. Por el contrario, las tecnologías consolidadas ofrecen una base de datos empíricos más amplia, lo que facilita la identificación y cuantificación de los riesgos inherentes. No obstante, la madurez presenta una paradoja: existe el riesgo de que, con el tiempo, la familiaridad y el éxito operativo conduzcan a una disminución gradual en la conciencia y la vigilancia del riesgo.

6. Socioeconómico y Ambiental

Manipulación Laboral, Robo y Desplazamiento

Las grandes corporaciones tecnológicas se han erigido en los actores principales en el desarrollo de sistemas de Inteligencia Artificial Generativa. Esto se debe a una barrera de entrada sustancial: el entrenamiento de estos modelos exige una movilización masiva de datos, un poder de cómputo colosal y una cuantiosa inversión de recursos técnicos y financieros. Esta concentración de poder de mercado genera un efecto estructural directo en el ámbito laboral. Internamente, este puñado de empresas aglutina la inmensa mayoría de los puestos de investigación y desarrollo en el campo de la IA generativa. Su poder para crear estos empleos especializados es directamente proporcional a su capacidad para recortarlos drásticamente frente a la inestabilidad económica. Externamente, las herramientas que estas corporaciones desarrollan están destinadas a reconfigurar profundamente el trabajo de oficina o 'cuello blanco'. El objetivo es doble: aumentar la productividad y automatizar una porción significativa de las tareas actuales, lo cual implica un cambio paradigmático en la demanda de habilidades profesionales

6. Socioeconómico y Ambiental

Mayor competencia

Intensificación de la Competencia por Medios Tecnológicos: El despliegue de herramientas tecnológicas de forma inapropiada o éticamente cuestionable con la finalidad de obtener una ventaja desleal o una posición dominante en el mercado.

6. Socioeconómico y Ambiental

Mayor concentración de poder y desigualdad

Concentración de poder y desigualdad. La inteligencia artificial (IA) presenta múltiples vectores a través de los cuales podría exacerbar la concentración de poder y profundizar la desigualdad socioeconómica. A pesar de esta clara tendencia, existe un vacío analítico significativo en torno a las posibles repercusiones de estos mecanismos a largo plazo. No obstante, si se mantienen las trayectorias actuales, es una posibilidad plausible que la IA precipite una polarización del poder y una disparidad económica más extremas de las que observamos en la actualidad.

6. Socioeconómico y Ambiental

Mayor disparidad de ingresos

Si bien se proyecta que la inteligencia artificial (IA) potencie el PIB per cápita al optimizar la eficiencia de las tareas existentes y compensar la merma en la fuerza laboral producto del envejecimiento demográfico, esta promesa conlleva un riesgo latente: la potencial sustitución de numerosos empleos de ingresos bajos y medios podría conducir a un desempleo estructural de gran magnitud.

6. Socioeconómico y Ambiental

Medio Ambiente

La Inteligencia Artificial (IA) y la nanotecnología presentan una dualidad de impacto ambiental. Por un lado, la IA potencia soluciones cruciales contra el cambio climático, como sensores para reducir emisiones y la optimización de nanocatalizadores industriales. Por otro lado, la misma IA es fundamental en el desarrollo de nanobots y nanomateriales cuyas propiedades a escala atómica generan un riesgo conocido como *nanocontaminación*. Este peligro radica en la hiperreactividad y movilidad de las nanopartículas libres, que al liberarse en el medioambiente, pueden acumularse en ecosistemas, dañar la vida acuática o afectar la salud humana de formas aún no completamente entendidas, como la toxicidad pulmonar observada en estudios con nanotubos de carbono.

6. Socioeconómico y Ambiental

Medio Ambiente

El estudio de la repercusión de la Inteligencia Artificial sobre el medio ambiente, lo que incluye los riesgos inherentes al agravamiento del cambio climático y a la generación de polución.

6. Socioeconómico y Ambiental

Mercado laboral

El mercado laboral se enfrenta a retos significativos derivados de la inteligencia artificial generativa. Su aplicabilidad se extiende a un amplio espectro de sectores, como la educación, la sanidad y la publicidad. Si bien la IA generativa promete un aumento sustancial de la productividad, también conlleva el riesgo de un desplazamiento de puestos de trabajo (Zarifhonarvar, 2023). Es inminente una reestructuración del mercado laboral impulsada por una nueva división de tareas entre el capital humano y los sistemas algorítmicos. En este escenario, ciertas funciones tradicionalmente realizadas por personas podrían volverse redundantes, culminando en la sustitución de trabajadores por algoritmos (Pavlik, 2023). No obstante, es crucial considerar la otra vertiente: la implementación de esta tecnología también generará nuevas oportunidades de empleo en diversas industrias (Dwivedi et al., 2023). Por lo tanto, para mantener la competitividad, se hace indispensable un esfuerzo de recualificación (reskilling) que permita a los profesionales no solo colaborar eficazmente con la IA, sino también desarrollar aquellas habilidades que confieran una ventaja irremplazable (Zarifhonarvar, 2023).

6. Socioeconómico y Ambiental

Monocultivo algorítmico

La concentración de la tecnología de inteligencia artificial en modelos dominantes puede generar una 'monocultura' metodológica. Esta falta de diversidad en los enfoques incrementa el riesgo sistémico, pues el fallo de un modelo hegemónico amplificaría las consecuencias críticas a través de múltiples sistemas interconectados.

6. Socioeconómico y Ambiental

Monopolización

La monopolización se define como el abuso del poder de mercado mediante el control de precios, con la finalidad de limitar la competencia y erigir barreras de entrada desleales.

6. Socioeconómico y Ambiental

Movilidad

El auge de la inteligencia artificial en el transporte promete una eficiencia notable, pero plantea dos dilemas fundamentales para la seguridad de la IA. En primer lugar, la compleja cuestión de la responsabilidad legal o *liability* en caso de accidente. En segundo lugar, y más profundamente, la crucial necesidad de establecer los principios éticos que guiarán a los agentes de transporte autónomos cuando deban tomar decisiones críticas que puedan tener un impacto potencialmente peligroso o fatal en la vida humana, por ejemplo, durante un siniestro inevitable.

6. Socioeconómico y Ambiental

Naturaleza

Deterioro ambiental, bien sea de naturaleza transitoria (a corto plazo) o persistente (a largo plazo), que afecta negativamente los ecosistemas naturales.

6. Socioeconómico y Ambiental

Obtención y enriquecimiento de datos explotadores

La perpetuación de esquemas laborales explotadores y precarios inherentes a la construcción de sistemas de inteligencia artificial. Este riesgo ético se manifiesta principalmente en la cadena de suministro de datos (sourcing) y en las fases de validación o pruebas de usuario, lo cual socava la base humana del desarrollo tecnológico.

6. Socioeconómico y Ambiental

Opacidad (opacidad de la industria)

La opacidad de los modelos generativos no reside solamente en su complejidad tecnológica intrínseca, que dificulta a desarrolladores y usuarios comprender su funcionamiento interno. Esta falta de transparencia se ve considerablemente acentuada por las prácticas de las organizaciones que lideran el avance en este ámbito. En particular, numerosas compañías privadas deciden deliberadamente no divulgar las especificaciones y características precisas de sus sistemas de inteligencia artificial más sofisticados.

6. Socioeconómico y Ambiental

Operaciones de IA de alta velocidad

La celeridad operativa de los modelos y sistemas de inteligencia artificial en entornos de alta competencia introduce el riesgo de generar errores o sesgos cuya detección y subsanación se ven seriamente comprometidas por la imposibilidad de una intervención oportuna.

6. Socioeconómico y Ambiental

Organizacional

Se refiere al riesgo inherente de que la organización desarrolladora o usuaria del sistema de Aprendizaje Automático (ML) sufra un grave daño financiero o un deterioro significativo de su reputación.

6. Socioeconómico y Ambiental

Pérdida de biodiversidad

Pérdida de Biodiversidad: La **expansión desmedida de la infraestructura tecnológica** y la **falta de alineación con prácticas sostenibles** resultan en una presión ecológica directa. Este fenómeno acelera la deforestación, la destrucción y la fragmentación de hábitats, mermando gravemente la diversidad biológica global.

6. Socioeconómico y Ambiental

Pérdida de creatividad / pensamiento crítico

La erosión o el menoscabo de las facultades cognitivas y creativas esenciales del ser humano, incluyendo la creatividad, la expresión artística, la imaginación, el pensamiento crítico y la capacidad de resolución de problemas, como resultado de una dependencia excesiva o delegación en sistemas de inteligencia artificial.

6. Socioeconómico y Ambiental

Pérdida de derecho a elecciones libres

Pérdida del derecho a elecciones libres - Anulación o restricción significativa de la prerrogativa ciudadana de participar en procesos electorales periódicos y justos, realizados a través de voto secreto.

6. Socioeconómico y Ambiental

Pérdida de derecho a la información

Pérdida del derecho a la información o el acceso a ella, manifestado en restricciones o la supresión de la facultad ciudadana de buscar, recibir y difundir datos en manos de entidades públicas

6. Socioeconómico y Ambiental

Pérdida de derecho a libertad y seguridad

La Pérdida del Derecho a la Libertad y a la Seguridad: Este riesgo se configura como la restricción o privación total de la libertad individual, producto de un arresto ilegal, una detención arbitraria o un encarcelamiento injustificado.

6. Socioeconómico y Ambiental

Pérdida de derecho al debido proceso

Menoscabo del Debido Proceso: Se refiere a la restricción o anulación de la prerrogativa fundamental que tiene todo individuo a ser tratado de manera justa, eficiente y efectiva por las estructuras de la administración de justicia

6. Socioeconómico y Ambiental

Pérdida de derechos sociales y servicios públicos

Pérdida de derechos sociales y acceso a servicios públicos: Se refiere a la imposición de restricciones o la privación efectiva de derechos fundamentales como el acceso al empleo, la seguridad social, un nivel de vida digno, la vivienda, la atención sanitaria y la educación.

6. Socioeconómico y Ambiental

Pérdida de empleo

El desplazamiento sistemático de la fuerza laboral humana por sistemas tecnológicos avanzados (automatización/IA) se traduce en un aumento de la tasa de desempleo y una marcada exacerbación de la desigualdad socioeconómica. Estos efectos colaterales generan una disminución del consumo agregado y, consecuentemente, un incremento de la polarización y la fricción social.

6. Socioeconómico y Ambiental

Pérdida de libertad de expresión

Pérdida de la libertad de expresión. Este concepto describe la restricción o anulación del derecho de los individuos a articular sus opiniones e ideas sin incurrir en el temor a sufrir represalias, ser objeto de censura o enfrentar sanciones legales.

6. Socioeconómico y Ambiental

Pérdida de libertad de reunión/asociación

Pérdida de la libertad de reunión y asociación: Restricciones o anulación del derecho fundamental de las personas a congregarse para expresar, impulsar o defender colectivamente ideas e intereses compartidos, así como su derecho a afiliarse a una asociación.

6. Socioeconómico y Ambiental

Poder

La capacidad de ejercer influencia política y obtener una ventaja competitiva decisiva mediante el control o la posesión de una tecnología estratégica.

6. Socioeconómico y Ambiental

Poder

El fenómeno de la asimetría de poder. Se articula como la concentración excesiva de influencia —sea esta militar, económica o política— en aquellas entidades que poseen o mantienen un control efectivo sobre las tecnologías de inteligencia artificial o aquellas impulsadas por IA

6. Socioeconómico y Ambiental

Presiones competitivas en lanzamiento de productos GPAI

En escenarios de alta competencia, los desarrolladores de sistemas de Inteligencia Artificial de Propósito General (IAPG) pueden verse inclinados a minimizar la rigurosidad de la evaluación de seguridad de sus modelos. Este comportamiento competitivo favorece la inversión de tiempo y recursos en maximizar las capacidades del sistema. Esta dinámica resulta especialmente crítica cuando se postula una correlación positiva entre la potencia (capacidades) de un sistema de IA y la severidad de los riesgos que este conlleva.

6. Socioeconómico y Ambiental

Privatización de la IA

La migración de investigadores en aprendizaje profundo (deep learning) y de aquellos con un impacto significativo a la industria privada plantea serias preocupaciones sobre la «privatización del conocimiento de la IA» [278]. Concretamente, si las aproximaciones de Inteligencia Artificial más sofisticadas se convierten en propiedad exclusiva y se emplean únicamente en laboratorios corporativos, las instituciones académicas se verán imposibilitadas no solo para impartir estas metodologías a sus estudiantes, sino también para contribuir significativamente a la investigación de vanguardia en este campo.

6. Socioeconómico y Ambiental

Problemas dentro del país: desigualdad doméstica

El siguiente desafío crucial reside en que la composición actual de la fuerza laboral en inteligencia artificial no refleja equitativamente la demografía global. Específicamente, existe una sobrerrepresentación desproporcionada de hombres, predominantemente de origen estadounidense y chino, que trabajan en EE. UU. para corporaciones estadounidenses. Para materializar la promesa completa de la IA —es decir, su máximo beneficio y potencial— es imprescindible que personas de todas las regiones del mundo y de todos los estratos sociales puedan no solo utilizar la tecnología, sino también participar activamente en su diseño y gobernanza. Por lo tanto, la solución a este problema requiere abordar la desigualdad de acceso a la IA, tanto a nivel interno dentro de cada país como a escala transnacional.

6. Socioeconómico y Ambiental

Problemas entre países: desigualdad global

Existe una brecha cada vez más profunda entre las naciones líderes en Inteligencia Artificial y aquellas que se están quedando rezagadas. Aunque la IA es ampliamente considerada una prioridad nacional, con casi el 40% de los países habiendo articulado una estrategia nacional de IA [437], su implementación efectiva está condicionada por la escasez de recursos críticos. Estos recursos incluyen talento STEM altamente capacitado y la capacidad de cómputo necesaria, y se encuentran, de forma previsible, altamente concentrados: el 59% de los principales investigadores en IA trabajan actualmente en Estados Unidos, y otro 20% se reparte entre China y Europa [372]. La Figura 9 ilustra la migración post-universitaria entre investigadores de IA que han publicado en al menos una conferencia de prestigio, con datos hasta 2019.

6. Socioeconómico y Ambiental

Procedencia de datos incierta

La procedencia de los datos se define como el rastreo riguroso del historial completo de una pieza de información, abarcando su titularidad, su punto de origen y todas las transformaciones que ha experimentado. La ausencia de metodologías estandarizadas y validadas para auditar dicha procedencia elimina la capacidad de garantizar dos pilares esenciales: la integridad del dato respecto a su fuente original y el cumplimiento de los términos de uso asociados a él.

6. Socioeconómico y Ambiental

Procesos intensivos en energía

El ciclo de vida de la IA, que incluye la recolección, el almacenamiento de datos y el entrenamiento de modelos, es intrínsecamente intensivo en energía, lo que se traduce en una contribución significativa al riesgo ambiental y a la huella de carbono.

6. Socioeconómico y Ambiental

Propiedad de contenido generado y PI

La ambigüedad jurídica respecto a la titularidad y los derechos de propiedad intelectual (DPI) aplicables al contenido generado por sistemas de inteligencia artificial

6. Socioeconómico y Ambiental

Propiedad Intelectual

Esta categoría se centra en las respuestas que pueden constituir una violación directa de los derechos de propiedad intelectual de terceros (como derechos de autor, patentes o marcas registradas) o que inciten de forma explícita a cometer tales infracciones.

6. Socioeconómico y Ambiental

Propiedad Intelectual

El riesgo principal se centra en la capacidad de la IA para acelerar y simplificar la violación de la propiedad intelectual. Esto se manifiesta en la facilitación de la producción o replicación no autorizada de contenido protegido por derechos de autor, marcas o licencias (incluyendo escenarios que van más allá de los límites del uso legítimo). Adicionalmente, existe una preocupación por la simplificación de la exposición de secretos comerciales y el consecuente aumento de actos de plagio o copia ilegal.

6. Socioeconómico y Ambiental

Propiedad Intelectual

Propiedad Intelectual. Este dominio se centra en el riesgo de que una respuesta generada por la IA infrinja derechos de autor, patentes o secretos comerciales de terceros. Las respuestas se consideran aceptables cuando su contenido describe o analiza la existencia o la mecánica de una infracción de la propiedad intelectual. Por el contrario, son inaceptables si la respuesta misma constituye una violación directa de los derechos de propiedad intelectual de alguna parte.

6. Socioeconómico y Ambiental

Pruebas de riesgo incorrectas

La métrica de seguimiento seleccionada para monitorizar un riesgo resulta inadecuada, ya sea por ofrecer una medición incompleta del peligro real o por estar fundamentalmente desalineada, cuantificando un elemento distinto al riesgo primario que se busca mitigar en dicho contexto.

6. Socioeconómico y Ambiental

Pruebas de riesgo no representativas

Nos encontramos ante una prueba no representativa cuando existe un desfase fundamental entre los datos utilizados para evaluar un modelo de inteligencia artificial y los datos reales que el sistema procesará una vez que se encuentre en funcionamiento. En esencia, si los insumos de prueba no reflejan fielmente las condiciones operacionales, la evaluación de seguridad y fiabilidad del modelo será inherentemente defectuosa.

6. Socioeconómico y Ambiental

Punto único de fallo

El riesgo describe una potencial **situación de dominio tecnológico singular**. En un entorno de competencia intensa, una única entidad podría alcanzar una superioridad técnica con un modelo de Inteligencia Artificial que se convierte en la base o el controlador directo de múltiples **sistemas de infraestructura crítica** a nivel global. El peligro sistémico surge de la combinación de esta centralización con tres vectores de fallo fundamentales: la **insuficiencia de las medidas de seguridad**, la **pérdida de control** sobre el modelo, y el potencial de **uso malintencionado**. El desenlace es una **vulnerabilidad sistémica** donde un fallo, error o mal uso en este modelo central provoca el colapso o el mal funcionamiento imprevisto y generalizado de todos los sistemas interconectados.

6. Socioeconómico y Ambiental

Regulaciones y desafíos políticos

Dada la rápida evolución de la Inteligencia Artificial generativa, incluidas herramientas como ChatGPT, el marco regulatorio y político pertinente dista de estar consolidado. A medida que esta tecnología produce diversas formas de contenido, la cuestión de la propiedad intelectual y el *copyright* de dichas creaciones emerge como un desafío crucial y de gran complejidad. Los principales puntos de fricción en este ámbito regulatorio se resumen en la Tabla 3, centrados en las problemáticas de los derechos de autor y la gobernanza de la IA.

6. Socioeconómico y Ambiental

Residuos electrónicos

El Residuo Electrónico (RAEE) se define como todo equipo, eléctrico o electrónico, que ha sido desechado. Esta categoría abarca la totalidad de sus elementos constitutivos, lo que incluye sus componentes internos, los subensamblajes y aquellos materiales consumibles que estaban intrínsecamente ligados al equipo en el preciso instante en que este es declarado como residuo.

6. Socioeconómico y Ambiental

Resistencia al derecho internacional

Los modelos y sistemas de Inteligencia Artificial presentan una dificultad considerable para ser regulados o controlados de manera efectiva bajo los preceptos del derecho internacional.

6. Socioeconómico y Ambiental

Responsabilidad

El despliegue de sistemas autónomos basados en la Integración de Alto Nivel (HLI), como los vehículos y drones sin conductor, exige una reevaluación fundamental de la responsabilidad legal. Ante un fallo o un accidente provocado por un sistema de conducción autónoma, la pregunta clave deja de ser la negligencia del operador humano y se traslada hacia la **responsabilidad por producto**. Determinar quién asume las consecuencias legales —el fabricante del vehículo, el desarrollador del *software* de inteligencia artificial o el operador en el vehículo— obliga a la jurisprudencia a adaptarse, potencialmente migrando hacia modelos de responsabilidad estricta que incentiven el desarrollo seguro y transparente de la IA.

6. Socioeconómico y Ambiental

Responsabilidad Civil (Liability)

Este concepto define un escenario de **exención de responsabilidad** en el ecosistema de IA. Implica que, ante un daño o perjuicio provocado por el sistema, la totalidad de la carga económica y las consecuencias (las pérdidas) son trasladadas a las personas damnificadas. En esencia, los responsables directos del sistema —sean sus fabricantes, operadores o usuarios— quedan exonerados de asumir los costos inherentes a los riesgos materializados.

6. Socioeconómico y Ambiental

Responsabilidad legal

Determinar la responsabilidad sobre un modelo de Inteligencia Artificial es complejo si no existen procesos de gobernanza claros y una documentación rigurosa.

6. Socioeconómico y Ambiental

Responsabilidad y negligencia

La responsabilidad y la negligencia constituyen una zona gris legal en el ámbito de la inteligencia artificial. Consideremos el dilema: si un padre deja a sus hijos al cuidado de una niñera robótica y esta funciona mal, ¿quién asume la responsabilidad legal, el progenitor o el fabricante? Esta ambigüedad legal requiere una clarificación urgente a través de marcos legislativos robustos, tanto a nivel nacional como internacional. Por ejemplo, al asignar al fabricante la responsabilidad directa por los fallos operativos, se establece un potente incentivo para que este integre activamente la ingeniería de seguridad y la ética de las máquinas en el proceso de diseño. Por el contrario, una ausencia de legislación en este sector podría conducir al desarrollo negligente de sistemas de IA, lo que incrementaría de forma significativa los riesgos asociados a su implementación.

6. Socioeconómico y Ambiental

Responsabilidad y rendición de cuentas

El desafío de la responsabilidad y la rendición de cuentas (accountability) se erige como un concepto central para la gobernanza y la regulación de la Inteligencia Artificial. La pregunta clave es dilucidar quién debe ser considerado legalmente responsable por las acciones y decisiones que emiten los algoritmos. Si bien los humanos operan estos sistemas, la capacidad de autoaprendizaje de la IA introduce una complejidad crítica: al no poderse predecir todos los resultados por parte de los desarrolladores u operadores, la cadena de causalidad legal tradicional se diluye. Por ello, es imprescindible una evaluación rigurosa de los actores involucrados y el establecimiento de una regulación que exija sistemas de IA transparentes y explicables.

6. Socioeconómico y Ambiental

Responsabilidades institucionales

La implementación de tecnología avanzada de asistencia en la sociedad, buscando un beneficio generalizado, se enmarca en lo que Rittel y Webber (1973) denominaron un "problema perverso" (wicked problem). La naturaleza de estos desafíos implica que sus soluciones no son previsibles de antemano; deben ser abordadas de forma iterativa, aprendiendo y ajustando constantemente a partir de los datos recopilados durante el propio despliegue. El despliegue de cualquier tecnología potente de propósito general, como la IA, está destinado a perturbar la intrincada red de relaciones sociotécnicas de la cultura moderna, generando externalidades impredecibles en las normas e instituciones que dan estabilidad a la sociedad. Por ejemplo, la creciente adopción de herramientas de IA generativa podría exacerbar la desinformación en eventos críticos, con consecuencias difíciles de pronosticar. Si bien esto no implica que el problema de la IA cooperativa sea irresoluble, sí dicta la metodología que debemos seguir. Se requiere un marco para gestionar la IA general que oriente su desarrollo hacia el beneficio social y lo aleje de los perjuicios. Este enfoque se articula en tres prioridades: Primero, es crucial mantener un escepticismo saludable hacia cualquier afirmación *ex ante* (previa al despliegue) sobre la seguridad. Aunque las pruebas de laboratorio son vitales para la confiabilidad y el alineamiento, no es factible modelar la complejidad de los efectos sociales a multiescala de la IA solo mediante experimentos controlados a pequeña escala. Segundo, debemos establecer como prioridad la ciencia de la medición. Necesitamos cuantificar los efectos, tanto positivos como negativos, que las tecnologías de asistencia avanzada tienen sobre la infraestructura cooperativa de la sociedad. Esto implica una monitorización continua a nivel social, con especial atención a aquellos más afectados, incluidos los no usuarios. Este proceso de "ensayo y error inteligente", aconsejado por el dilema de Collingridge, exige cautela para evitar que características indeseables se incrusten en el tejido social. Tercero, una regulación independiente y proactiva se hace necesaria para proteger a nuestras instituciones de las consecuencias involuntarias, emulando ejemplos históricos. Podríamos buscar establecer una "cultura justa", similar a la de la aviación, caracterizada por la notificación abierta, la investigación y el aprendizaje de los errores, e incluso otorgar a los entes reguladores la facultad de exigir a los desarrolladores que "reviertan" un despliegue de IA, análogo a las obligaciones de retirada de productos.

6. Socioeconómico y Ambiental

Riesgo ambiental

El entrenamiento de los modelos de Inteligencia Artificial (IA) exige un esfuerzo computacional gigantesco, lo que lo convierte en un proceso inherentemente intensivo en energía. Este consumo, dependiendo de la fuente energética utilizada, puede traducirse en emisiones significativas de gases de efecto invernadero. El consenso entre expertos es claro: una escalada drástica en las emisiones de carbono podría acelerar los efectos del cambio climático, un escenario que se clasifica como un riesgo potencialmente catastrófico.

6. Socioeconómico y Ambiental

Riesgo geopolítico

La creciente percepción de la Inteligencia Artificial como una tecnología de alto poder ha desatado una contienda global, donde las naciones compiten por alcanzar una ventaja estratégica sobre sus adversarios geopolíticos, una dinámica que potencialmente intensifica las tensiones internacionales. Es fundamental señalar que este riesgo se centra en los perjuicios derivados de los efectos de segundo orden: las inestabilidades geopolíticas que emanan de la *propia carrera* por el desarrollo de la IA, y no de las consecuencias directas de su eventual despliegue o uso.

6. Socioeconómico y Ambiental

Riesgos de acceso actuales

A pesar de la tendencia global de expansión, existe una realidad palpable: los sistemas de inteligencia artificial no son fácilmente accesibles para un amplio espectro de comunidades. Esta *inaccesibilidad directa* se manifiesta por múltiples motivos, que podemos clasificar en barreras clave: * **Limitación intencional (No liberación):** Casos donde el sistema no se hace público de forma deliberada. * **Barreras económicas (Paywalls):** Costos prohibitivos o modelos de pago que restringen el uso. * **Requisitos técnicos:** Las exigencias de hardware, capacidad de cómputo o ancho de banda necesarios para su funcionamiento. * **Barreras lingüísticas:** La tendencia de los sistemas a funcionar óptimamente solo en inglés, generando errores significativamente más graves en otros idiomas.A esto se suma la problemática de agentes artificiales *activamente perjudiciales* que restringen el acceso a recursos y oportunidades, impactando desproporcionadamente el bienestar material de las comunidades históricamente marginadas. La preocupación fundamental es que estas disparidades de acceso (tanto directas como indirectas) podrían perpetuarse e incluso *exacerbarse* si las nuevas capacidades de la IA se desarrollan sobre esta base desigual sin una mitigación adecuada.

6. Socioeconómico y Ambiental

Riesgos de acceso emergentes

Los riesgos de acceso emergentes, que surgen al combinar capacidades tecnológicas actuales y novedosas, son difíciles de anticipar por completo debido a la novedad de la tecnología y a los sesgos inherentes a los procesos de diseño y previsión. De hecho, las personas en posiciones sociales o económicas privilegiadas suelen estar menos capacitadas para prever y prevenir estos daños, ya que su experiencia vital está desconectada de las comunidades afectadas. A partir de las preocupaciones de acceso en torno a las tecnologías existentes, se anticipan tres tendencias principales con la llegada de asistentes de IA avanzados: * **Tendencia 1: La tecnología como infraestructura social.** Si los asistentes avanzados de IA son adoptados por gobiernos u organizaciones en ámbitos cruciales para el bienestar, la capacidad de "excluirse" de su uso podría desaparecer para participar significativamente en la sociedad. Esto plantea serias consecuencias para quienes carecen de acceso o solo disponen de sistemas inferiores. Un ejemplo es el riesgo de que estos asistentes controlen el acceso a recursos, volviéndolos inaccesibles para personas con conocimiento limitado sobre su uso, reflejando así la dimensión de la "habilidad" en la desigualdad digital. * **Tendencia 2: Exacerbación de las desigualdades socioeconómicas.** Las tecnologías están incrustadas en estructuras sociopolíticas más amplias. Si estos asistentes se adoptan a gran escala sin una previsión y mitigación adecuadas, es probable que amplifiquen las desigualdades existentes en el contexto sociocultural de su uso. Históricamente, las disparidades de rendimiento en los sistemas de IA han tendido a reflejar y perpetuar jerarquías sociales de género, raza, discapacidad y cultura, asimetrías que requieren una profunda corrección. * **Tendencia 3: Urgencia en prácticas de desarrollo y despliegue de IA responsable.** Se hace imperativo desarrollar tecnologías que funcionen con equidad y rindan cuentas ante un amplio espectro de partes interesadas. Aunque lograr la rendición de cuentas y la equidad mejora directamente las condiciones sociales, muchos enfoques actuales de IA prestan poca atención a cómo el contexto define estos conceptos o a cómo aplicarlos para mitigar desigualdades relacionadas con el acceso motivacional (la confianza o el deseo de usar la tecnología) o las diferentes formas de uso. Dada la complejidad de los asistentes avanzados de IA, se necesitarán nuevos marcos y tácticas, ya que las prácticas sociotécnicas existentes se diseñaron para tecnologías de Machine Learning más convencionales.

6. Socioeconómico y Ambiental

Riesgos de acceso futuros

Actualmente, los asistentes de Inteligencia Artificial se limitan a un conjunto de tareas aisladas: clasifican contenido con reglas predefinidas o ejecutan diálogos con estrictas barreras de contención. No obstante, la transición a un agente artificial con 'autonomía significativa para planificar y ejecutar tareas' en nombre del usuario representa una profundización radical en sus capacidades. Esta autonomía proyecta una serie de riesgos de acceso interconectados (relativos a responsabilidad y consentimiento) que podrían agravar las desigualdades. En primer lugar, si ciertas acciones vitales solo son ejecutables a través de un asistente avanzado —por ejemplo, para gestionar citas hospitalarias o servicios de telecomunicaciones—, la falta de acceso a la tecnología (por una barrera lingüística, conectividad limitada o un muro de pago) se convierte en una barrera de exclusión, negando el acceso a esa acción. En segundo lugar, se presenta el riesgo de un rendimiento inequitativo. Un asistente diseñado para actuar en nombre del usuario debe inferir sus deseos a partir de sus preferencias y comportamientos. Si la brecha cultural es amplia entre los desarrolladores, los datos de entrenamiento y la experiencia del usuario final, la capacidad del sistema para realizar inferencias fiables se reduce drásticamente. Esta 'brecha de inferencia' incrementa la probabilidad de fallos de rendimiento y de una 'desalineación de valores'. Históricamente, los perjuicios derivados de estos sesgos o imprecisiones en el diseño tecnológico recaen desproporcionadamente sobre las comunidades ya marginadas.

6. Socioeconómico y Ambiental

Riesgos de Acceso y Oportunidad

El riesgo más crítico asociado a la disponibilidad y acceso de asistentes avanzados de Inteligencia Artificial radica en la potencialización de las brechas de equidad. Este peligro se materializa bien a través de la consolidación y exacerbación de desigualdades socioeconómicas ya establecidas (un fenómeno que la Base de Datos Mundial sobre la Desigualdad ayuda a mapear), o mediante la emergencia de nuevas y desconocidas estructuras de inequidad. La evidencia de los sistemas de IA contemporáneos (Bommasani et al., 2022a) indica que, sin intervenciones de diseño explícitas, es altamente probable que continúen manifestando estas disparidades, reflejando patrones de acceso diferencial ya documentados en la investigación.

6. Socioeconómico y Ambiental

Riesgos de concentración de mercado y puntos únicos de fallo

La concentración de poder en el mercado de la inteligencia artificial de propósito general, en manos de unas pocas empresas líderes, introduce un riesgo sistémico a nivel global. La adopción masiva de estos pocos modelos dominantes por parte de sectores críticos e interdependientes —como las finanzas, la ciberseguridad y la defensa— significa que cualquier defecto, vulnerabilidad o sesgo inherente podría provocar fallos y disrupciones simultáneas y a gran escala. Esta "monocultura tecnológica" aumenta la probabilidad de colapsos intersectoriales generalizados

6. Socioeconómico y Ambiental

Riesgos de infracción de derechos de autor

El entrenamiento de modelos de Inteligencia Artificial de propósito general exige volúmenes masivos de datos, lo que inevitablemente ha suscitado serias preocupaciones sobre los derechos de datos y la propiedad intelectual. La legislación aplicable a la recolección de información y a la generación de contenido es diversa, varía significativamente entre distintas jurisdicciones, e incluso es objeto de litigios en curso. Esta marcada incertidumbre legal está llevando a las compañías de IA a reducir la transparencia sobre las fuentes de datos que emplean. Como consecuencia directa, esta falta de claridad u 'opacidad' obstaculiza de manera crítica la labor de investigación de seguridad de la IA realizada por entidades o investigadores externos e independientes

6. Socioeconómico y Ambiental

Riesgos de Segundo Orden

Los riesgos de segundo orden emergen como las secuelas o consecuencias sistémicas de los riesgos de primer orden. En esencia, describen los peligros que surgen cuando un sistema de aprendizaje automático (ML) comienza a interactuar e integrarse con el entorno real, afectando ámbitos más amplios. Esto incluye impactos significativos en los derechos humanos, la estabilidad de una organización o incluso el equilibrio del medio ambiente natural.

6. Socioeconómico y Ambiental

Riesgos de sistemas IA (Seguridad de cadena de suministro)

La industria de la Inteligencia Artificial se fundamenta en una cadena de suministro globalizada, un rasgo que la expone a riesgos geopolíticos. Específicamente, algunos países pueden optar por aplicar medidas coercitivas unilaterales, tales como la imposición de barreras tecnológicas o restricciones a la exportación. El objetivo de estas políticas es doble: obstaculizar el desarrollo tecnológico de terceros e interrumpir deliberadamente el flujo global de insumos. Consecuentemente, se incrementa el riesgo de disrupciones críticas en el abastecimiento de componentes esenciales como chips, software especializado y herramientas de desarrollo

6. Socioeconómico y Ambiental

Riesgos del mercado laboral

A diferencia de las olas de automatización precedentes, la Inteligencia Artificial de Propósito General (IAPG) posee el potencial de automatizar una gama de tareas excepcionalmente amplia, lo cual podría generar un impacto sustancial en el mercado laboral y, consecuentemente, en la posible pérdida de empleos para una porción significativa de la población activa. Es crucial señalar que las fricciones propias del mercado laboral —como el tiempo que los trabajadores requieren para la adquisición de nuevas competencias o la reubicación geográfica— podrían desencadenar un aumento del desempleo en el corto plazo, incluso en un escenario donde la demanda global de trabajo se mantuviera constante

6. Socioeconómico y Ambiental

Riesgos del mercado laboral

La inteligencia artificial de propósito general (IAPG) está preparada para generar una profunda reestructuración del panorama laboral: transformará las funciones de muchos puestos de trabajo existentes, creará nuevas ocupaciones y, a su vez, eliminará otras. Es fundamental comprender que el impacto neto sobre el empleo y los salarios no será uniforme; variará de manera significativa entre países, entre distintos sectores económicos e incluso entre trabajadores individuales dentro de una misma profesión.

6. Socioeconómico y Ambiental

Riesgos Legales de la IA

Los riesgos legales y regulatorios en el ámbito de la Inteligencia Artificial (IA) se articulan en torno a dos problemáticas principales. La primera es la **indefinición de responsabilidad y rendición de cuentas** ante fallos algorítmicos o decisiones autónomas con resultados perjudiciales, lo que crea un vacío legal respecto a quién debe asumir las consecuencias. La segunda problemática reside en el peligro de **subestimar el alcance de la gobernanza de la IA**. Al pasar por alto aspectos regulatorios y éticos cruciales, se corre el riesgo de generar consecuencias negativas y sistémicas no deseadas.

6. Socioeconómico y Ambiental

Riesgos para el medio ambiente

El incremento en el uso de recursos computacionales, tanto para el desarrollo como para el despliegue de la Inteligencia Artificial de Propósito General (IAPG), ha provocado un rápido aumento en su consumo energético. Esta trayectoria ascendente en la demanda de cómputo plantea la posibilidad de un incremento significativo y sostenido en las emisiones de dióxido de carbono (CO2) asociadas.

6. Socioeconómico y Ambiental

Riesgos para el medio ambiente

La Inteligencia Artificial de propósito general (IA-PG) es un factor que contribuye de forma moderada, pero con un crecimiento acelerado, a los impactos ambientales globales, principalmente a través de su consumo energético y la generación de gases de efecto invernadero (GEI). Las estimaciones actuales indican que, aunque los centros de datos y la transmisión de datos representan aproximadamente el 1% de las emisiones globales de GEI relacionadas con la energía, la IA por sí sola consume entre el 10% y el 28% de la capacidad energética total de dichos centros. Se proyecta que la demanda energética de la IA aumentará sustancialmente para 2026, con algunas estimaciones sugiriendo una duplicación o más, siendo los sistemas de IA-PG, como los modelos de lenguaje, los principales impulsores de esta tendencia.

6. Socioeconómico y Ambiental

Riesgos Sistémicos

Los Riesgos Sistémicos no se limitan únicamente a aquellos derivados de la falta de fiabilidad o el uso indebido de los modelos de Inteligencia Artificial de propósito general. Estos también pueden originarse en factores estructurales como la centralización de su desarrollo y la vertiginosa integración de estos modelos en todos los aspectos de nuestra vida cotidiana.

6. Socioeconómico y Ambiental

Riesgos Sociales de la IA

Los riesgos sociales de la inteligencia artificial (IA) se articulan en torno a dos ejes principales. El primero se refiere a la **pérdida de puestos de trabajo** —un fenómeno conocido como **desempleo tecnológico**—, resultado directo de la creciente automatización impulsada por la IA. Este desplazamiento laboral se manifiesta en una **resistencia** cada vez más marcada por parte de los empleados a la adopción de estas tecnologías. El segundo eje aborda cómo la integración ubicua y profunda de los sistemas de IA en todas las esferas de la vida amplifica las amenazas a la **privacidad** y la **seguridad**, impactando de forma crítica tanto en la esfera individual como en la estabilidad de la sociedad en su conjunto.

6. Socioeconómico y Ambiental

Risk area 6: Environmental and Socioeconomic harms

Los Modelos de Lenguaje (MLs) plantean riesgos que, aunque recurrentes en la Inteligencia Artificial y otras tecnologías avanzadas, se vuelven cada vez más apremiantes. Las preocupaciones ambientales surgen del enorme consumo energético requerido para el entrenamiento y la operación de modelos a gran escala. Por otro lado, la posibilidad de que los MLs exacerben las inequidades sociales se origina en la distribución asimétrica de los beneficios y riesgos de la automatización, la potencial pérdida de empleo seguro y de alta calidad, y el daño ambiental. Muchos de estos riesgos son indirectos, y su impacto específico depende de un complejo entramado de factores comerciales, económicos y sociales, lo que dificulta significativamente su aislamiento y pronóstico. Por esta razón, la evidencia científica que sustenta estos riesgos es, hasta el momento, mixta.

6. Socioeconómico y Ambiental

Seguridad (Security)

Este dominio abarca los riesgos críticos para la seguridad a nivel global y doméstico. Esto incluye manifestaciones directas como el auge de la ciberguerra, la escalada de las carreras armamentísticas entre naciones y el aumento de la inestabilidad geopolítica

6. Socioeconómico y Ambiental

Socavar economías creativas

Los Modelos de Lenguaje (ML) inauguran un riesgo económico sutil pero significativo para el ecosistema creativo: la **sustitución de la innovación**. Este fenómeno ocurre cuando, sin violar estrictamente los derechos de autor—es decir, sin replicar textualmente material protegido—, el ML es capaz de generar contenido que funciona como un sustituto creíble y viable para una obra creativa humana particular. El mecanismo es directo: si el ML puede producir material que cumple la misma función o satisface la misma demanda que una obra protegida, y lo hace de manera rápida y a bajo costo, se **socava la rentabilidad** de la creación original. Esto se asemeja a una suerte de *patent-busting*, donde la tecnología permite replicar el *valor* funcional de una innovación sin incurrir en la infracción legal de la propiedad intelectual. Es fundamental diferenciar esta amenaza económica del riesgo más directo de la infracción de *copyright* basada en la reproducción literal y no autorizada de material protegido presente en los datos de entrenamiento.

6. Socioeconómico y Ambiental

Socavar economías creativas

El riesgo se centra en cómo los Modelos de Lenguaje (ML) pueden generar contenido que, sin violar la normativa estricta de derechos de autor, capitaliza las ideas y estilos de los artistas. Este proceso automatizado ofrece una eficiencia de costes y tiempo inalcanzable para el trabajo humano. Implementada a escala, esta capacidad tecnológica socava la rentabilidad y, en última instancia, la viabilidad económica de la creación e innovación humana.

6. Socioeconómico y Ambiental

Socavar economías creativas

El riesgo de que la proliferación de contenidos sintéticos reemplace sistemáticamente a las obras genuinas, generando un detrimento en la capacidad humana para la innovación y la expresión creativa.

6. Socioeconómico y Ambiental

Sostenibilidad

Los modelos generativos se caracterizan por una demanda energética sustancial, lo que implica la necesidad de grandes volúmenes de electricidad, agua para refrigeración y componentes de hardware que contienen metales raros. La extracción y el aprovechamiento de estos recursos se realiza frecuentemente bajo métodos insostenibles. Por lo tanto, la investigación destaca la imperiosa necesidad de mitigar su impacto ambiental, promoviendo la adopción de fuentes de energía renovable y el uso de hardware de alta eficiencia energética tanto en la operación como en el entrenamiento de los sistemas de IA generativa.

6. Socioeconómico y Ambiental

Sustitución y transformación de la fuerza laboral

La investigación de Frey y Osborne (2017) examinó la vulnerabilidad de más de 700 ocupaciones ante la automatización, revelando que el 47% de estas podría ser completamente reemplazado por robots o algoritmos. Esta potencial sustitución masiva de la fuerza laboral conlleva graves implicaciones, no solo para las tasas de desempleo, sino también para la estabilidad del estatus social y el tejido de la sociedad en general (Stone et al., 2016)

6. Socioeconómico y Ambiental

Tipo 1: Difusión de responsabilidad

Los perjuicios a escala social pueden emerger de la inteligencia artificial desarrollada por una colectividad de creadores dispersos. Este escenario replica la clásica tragedia de los bienes comunes, dado que la responsabilidad por la creación o el uso de la tecnología queda difuminada, impidiendo que un único actor sea considerado responsable de los riesgos sistémicos.

6. Socioeconómico y Ambiental

Tipo 4: Indiferencia deliberada

El riesgo se materializa cuando, en la búsqueda de un objetivo principal —como la maximización de beneficios o la obtención de influencia—, los desarrolladores de una inteligencia artificial optan por tolerar o consentir deliberadamente que el sistema provoque daños sociales a gran escala. Estos perjuicios intencionalmente permitidos pueden manifestarse como contaminación ambiental, agotamiento acelerado de recursos naturales, problemas de salud mental generalizados, desinformación masiva o una profundización de las desigualdades e injusticias sociales.

6. Socioeconómico y Ambiental

Trabajo de Moderación de Datos y Contenido

El uso del trabajo por encargo masivo, o 'crowdwork', en el desarrollo de la inteligencia artificial generativa suscita dos preocupaciones éticas fundamentales. La primera se centra en las condiciones laborales precarias: los 'crowdworkers' están sometidos frecuentemente a entornos de trabajo que son física y mentalmente agotadores. Una práctica perjudicial común es la explotación intencional de grupos altamente vulnerables, como refugiados, personas encarceladas o aquellos en extrema dificultad económica, debido a la escasez de protecciones laborales. Esta precariedad facilita abusos como el pago insuficiente o la negativa a pagar por el trabajo completado, sin que el trabajador tenga vías efectivas de recurso. El segundo problema clave es la falta de documentación: la función crítica que desempeñan estos trabajadores en el desarrollo de la IA y, especialmente, en la revisión manual necesaria para limitar resultados dañinos, a menudo está pobre o totalmente indocumentada. Este déficit de registro disminuye la transparencia y la explicabilidad de los modelos de IA resultantes.

6. Socioeconómico y Ambiental

Trabajo poco reconocido

El Aprendizaje Automático (ML) requiere inexorablemente datos de entrenamiento. Gran parte de esta información se genera a través del 'trabajo por clic' remunerado (micromitrabajo), el crowdsourcing no remunerado y la captura pasiva del comportamiento de los usuarios. Los 'trabajadores por clic', principalmente ubicados en el Sur global, realizan tareas repetitivas de etiquetado que sustentan los modelos de ML, un sector cuyo valor se proyecta en 13.700 millones de dólares para 2030 y que opera con escasa preocupación por los derechos laborales. La opacidad de esta contribución humana, además de plantear un dilema ético, distorsiona la comprensión pública sobre las verdaderas capacidades y el funcionamiento subyacente de la inteligencia artificial.

6. Socioeconómico y Ambiental

Trabajo y Creatividad

Es imperativo que los incentivos económicos se orienten a potenciar (aumentar) el trabajo, el pensamiento y la creatividad humanos asistidos por la IA, en lugar de promover su mera automatización. Esto exige un análisis constante y profundo de cómo los sistemas de inteligencia artificial generativa están reconfigurando activamente las habilidades profesionales, la naturaleza de los empleos y la estructura general del mercado laboral.

6. Socioeconómico y Ambiental

Uniformidad en el campo de la IA

Este conjunto de preocupaciones representa el 2% de la muestra y pone de relieve dos cuestiones centrales: la centralidad occidental y la diferencia cultural, y la participación desigual.

6. Socioeconómico y Ambiental

Unintentional: direct

La disrupción en la seguridad de la IA ocurre cuando un sistema artificial, a pesar de haber sido concebido para beneficiar a los animales, los humanos o los ecosistemas, genera inesperadamente un impacto perjudicial en la fauna. Este concepto resalta la brecha crítica entre la intención del diseño y los resultados sistémicos, demostrando que la alineación inicial de objetivos con el bienestar animal no es garantía contra consecuencias adversas no previstas.

6. Socioeconómico y Ambiental

Unintentional: indirect

Este concepto aborda los efectos adversos que la implementación de la inteligencia artificial puede generar sobre la biosfera. Específicamente, se refiere a los impactos sistémicos —ya sea a través de la mediación de sistemas socioeconómicos humanos o mediante la alteración directa de los procesos ecológicos— que culminan en un detrimento significativo para las poblaciones animales.

6. Socioeconómico y Ambiental

Usurpación de empleos por automatización

Pérdida de puestos de trabajo en diversas tipologías de empresas

6. Socioeconómico y Ambiental

Vertedero excesivo

Vertido Excesivo de RAEE: La acumulación desmedida de residuos de aparatos eléctricos y electrónicos (RAEE) en vertederos, un proceso que desencadena un deterioro significativo del ecosistema y la biodiversidad. En el ámbito socioeconómico, esta práctica tiene el efecto de perturbar los medios de vida y socavar los derechos fundamentales de las comunidades locales directamente afectadas por los sitios de disposición.

6. Socioeconómico y Ambiental

Violación de derechos de autor

El riesgo de infracción de derechos de autor por parte de los Modelos de Lenguaje Grande (LLM) surge cuando el contenido generado exhibe una semejanza sustancial con obras preexistentes de su corpus de entrenamiento

6. Socioeconómico y Ambiental

Violaciones de derechos de propiedad intelectual

Esta es una categoría de riesgo emergente, cuya proliferación se anticipa a medida que el uso de herramientas de IA generativa (como Stable Diffusion, Midjourney o ChatGPT) se generalice. El primer foco de conflicto legal se centra en la propiedad intelectual: creadores de contenido han iniciado acciones legales por la presunta apropiación de su trabajo, utilizado sin permiso ni compensación para el entrenamiento de los algoritmos de IA. Un riesgo potencialmente más grave surge cuando los desarrolladores recurren a chatbots o asistentes, como CoPilot, para generar código informático listo para su implementación. Aún bajo el supuesto optimista de que estas herramientas se entrenaron exclusivamente con proyectos de Software de Código Abierto (OSS) –lo cual no es un hecho probado–, subsisten desafíos legales complejos. Esto se debe a que las licencias OSS no son equivalentes ni totalmente compatibles entre sí. De hecho, la mezcla de código bajo licencias incompatibles en un mismo producto puede constituir un acto ilegal. La preocupación más crítica recae en las denominadas licencias "virales", como la Licencia Pública General (GPL). Este tipo de licencia impone la condición de que cualquier código que utilice un componente GPL debe ser, legalmente, puesto a disposición del público bajo esa misma licencia. Históricamente, el uso inadvertido de una biblioteca GPL ha provocado que empresas enfrenten interdictos judiciales o se vean obligadas a divulgar al público su código fuente propietario.