¿Tomará una IA el control del mundo? El escenario «Matrix» de la RAND Corporation – El Grand Continent

Puntos claves
  • En un informe prospectivo, la RAND Corporation ha publicado ocho escenarios geopoliticos relacionados con la aparicion de la inteligencia artificial general (AGI), que van desde la hegemonia estadounidense hastaa el debilitamiento de la capacidad humana para controlar los sistemas tecnologicos autonomos.
  • Entre los escenarios mas cercanos al contexto actual, la carrera tecnologica no cooperativa entre Estados Unidos y China en torno a la AGI hace temer a la RAND una escalada hacia un guerra caliente, alimentada por la militarizacion de los algoritmos, la polarizacion de los ecosistemas tecnologicos y las crecientes tensiones en el mar de China o en torno a Taiwán.
  • Aunque es puramente especulativa y se basa en mundos ficticios, este estudio elaborado por un think tank de referencia tiene como objetivo alertar a los responsables politicos estadounidenses sobre los riesgos geopoliticos de la AGI, que podrian llegar a un escenario «al estilo Matrix» de perdida total del control del poder politico en favor de una coalicion de maquinas dotadas de superinteligencia.

En un informe publicado en julio de 2025 y titulado «Como la inteligencia artificial podria afectar a la grandeza y la decadencia de las naciones», la RAND Corporation pretende alertar a los responsables politicos sobre el impacto geopolitico potencial de la llegada de la inteligencia artificial general (AGI), definida como un sistema capaz de realizar todas las tareas intelectuales humanas, planteando ocho escenarios.

Sus autores sostienen que, al igual que la maquina de vapor, la electricidad o el petroleo, la AGI podria redefinir las relaciones de poder mundiales, transformando profundamente las capacidades economicas, tecnologicas y militares de las naciones.

[Descargar el informe completo aqui]

¿Que es la RAND Corporation?

Creada en 1948 y convertida desde entonces en el principal think tank estadounidense sobre cuestiones militares, estrategicas y tecnologicas, la RAND Corporation —su nombre es una variacion del acronimo R&D, que significa investigacion y desarrollo— ha sido fuente de numerosas reflexiones disruptivas que han influido en el Pentágono y la Casa Blanca a lo largo de la Guerra Fria.

Aunque, por supuesto, este documento no debe considerarse una posicion oficial de Estados Unidos —la RAND no es el Departamento de Defensa y sus investigadores, aunque estan muy vinculados al ecosistema federal y a la industria, no son funcionarios—, expresa escenarios que se presentan como creibles.

Desde la estrategia balistica hasta la guerra cognitiva, no es raro que las recomendaciones de la RAND acaben siendo adoptadas.

¿Que es la AGI?

Si bien las aplicaciones de la IA generativa han penetrado en el ecosistema de defensa y en la base industrial estadounidense desde hace muchos años, la inteligencia artificial general (AGI) sigue siendo un «objetivo a alcanzar» para las grandes empresas tecnologicas.

Se refiere a una forma de inteligencia artificial capaz de comprender, aprender y realizar cualquier tarea cognitiva que pueda realizar un ser humano, con un nivel de rendimiento igual o superior.

Como objetivo a alcanzar, se encuentra en el centro del modelo de financiacion de la IA, lo que justifica las inversiones masivas en los modelos, las infraestructuras y los recursos que los alimentan.

Construir hipotesis a partir de un objeto inexistente: una geopolítica de la AGI

Para esbozar estos diferentes escenarios, los autores se basan en dos tipos de hipotesis de partida: el desarrollo centralizado de la AGI y su desarrollo descentralizado.

En este segundo caso, el resultado del escenario viene motivado por la carrera de varios actores para desarrollar y alcanzar la AGI; en el segundo, viene motivado por el dominio de un actor. Estas situaciones pueden dar lugar a cuatro resultados segun la RAND: un refuerzo de la posicion de Estados Unidos; un refuerzo de los adversarios de Washington; un debilitamiento tanto de Estados Unidos como de sus adversarios; un freno al desarrollo de la AGI.

La siguiente tabla resume la tipologia de estos escenarios; los puntos siguientes, que obedecen el orden y las denominaciones del informe, recogen las principales proyecciones de los autores.

Escenarios «descentralizados»

Escenario 1 — Coaliciones democraticas multilaterales: la IA controlada por Washington

En el primer escenario contemplado por Barry Pavel y sus coautores, varias democracias desarrollan conjuntamente la AGI, compartiendo datos, semiconductores y buenas practicas en una situacion de equilibrio. En esta hipotesis, que parte de una premisa ironica, Estados Unidos y sus aliados aprovechan esta cooperacion para restringir el acceso de sus adversarios a los insumos criticos, reforzando asi su ventaja tecnologica y economica.

Segun los autores, tal escenario supondria un contexto cientifico especialmente propicio: los avances simultaneos en algoritmos, hardware y metodos de validacion alimentarian, en esta hipotesis, un despegue «descentralizado» de la AGI, repartido entre varios polos de investigacion, de los que Estados Unidos acabaria sacando el maximo provecho.

Este escenario seria el mas equilibrado en terminos de riesgos: «Aunque el desarrollo multipolar de la AGI se considera inicialmente preocupante por los observadores geopoliticos, las aplicaciones militares defensivas de la AGI siguen el ritmo de las capacidades ofensivas. La AGI no es dominante ni en el ambito ofensivo ni en el defensivo, por lo que no conduce a una rapida desestabilizacion del equilibrio militar».

Los autores apuestan ademas por que esta paridad tecnica tendria la ventaja de impedir un «first strike» automatizado que alteraria repentinamente el equilibrio estrategico y reforzaria el papel de liderazgo de la coalicion de democracias. Estados Unidos se aseguraria una asimetria con las potencias rivales apoyandose en sus aliados, en particular los transatlanticos. Al bloquear el acceso a los recursos esenciales, esta coalicion retrasaria la capacidad de China, Rusia y otros Estados para transformar sus propios avances algoritmicos en poder concreto.

La RAND concluye que «los adversarios [de Washington] tendrian dificultades para seguir el rapido ritmo de adopcion de la AGI en Estados Unidos por parte de sus aliados. Las restricciones al acceso a los insumos de IA [impedirian] que China, Rusia y otros paises aprovecharan plenamente sus propios avances en materia de AGI [permitiendo] a Estados Unidos consolidar su posicion de liderazgo mundial en el desarrollo y el despliegue de la AGI».

LEAR  La Guardia Civil Ofrece Recomendaciones de Seguridad para Compras Online Antes del Black Friday y el Cyber Monday

Escenario 2 — una guerra fria 2.0: el equilibrio del terror algorítmico

En el segundo escenario, Estados Unidos y China desarrollan cada uno su propia AGI en un clima de rivalidad exacerbada: «las tensiones geopoliticas se ven avivadas por la carrera por las infraestructuras y las alianzas estrategicas: ninguno de los dos puede permitir que el adversario tome la delantera, lo que conduce a un cuasi paralelismo de capacidades». Los sistemas militares automatizados, como los drones, aumentan el riesgo de una guerra caliente, mientras que cada bando trata de encerrar a otros paises en su ecosistema tecnologico.

Es el caso tipico de un desarrollo descentralizado que beneficia en primer lugar a los adversarios de Estados Unidos y aumenta los riesgos a escala mundial: un enfrentamiento tecnologico sin cooperacion, en el que Washington y Pekin compiten por dominar la AGI a costa de una polarizacion duradera.

En este escenario, los autores parten de unas coordenadas cercanas a la situacion real: «Estados Unidos y la Republica Popular China estan a la vanguardia del desarrollo de la IA, y cada uno aprovecha sus avances tecnologicos para reforzar sus capacidades economicas y militares. Estados Unidos logra mantener una paridad economica y militar aproximada con China durante todo este periodo, pero los avances en IA tienen un efecto nivelador: Estados Unidos ya no tiene una ventaja economica y militar neta. El equilibrio bilateral es precario y ambos bandos compiten por la influencia mediante inversiones, proyectos de infraestructura y alianzas estrategicas. Estas tensiones geopoliticas se ven agravadas por la conflictiva situacion en torno a Taiwán y en el mar de China Meridional, donde las reivindicaciones territoriales superpuestas y los esfuerzos de militarizacion hacen temer un enfrentamiento militar directo».

La RAND advierte contra la proliferacion incontrolada de tecnologias y modelos de AGI, que haria Practicamente ineficaz cualquier regulacion nacional o internacional — surge una forma de geopolítica del cowboy coding: «Los Estados no logran controlar la proliferacion de los componentes necesarios para el desarrollo de la AGI, y no pueden controlar la difusion y el acceso a estos modelos una vez desarrollados. Esta proliferacion puede producirse a traves de multiples eslabones de la cadena de suministro de la IA».

En tal escenario, es la carrera por la militarizacion de estos sistemas la que acaba acentuando los riesgos, a modo de carrera armamentistica: «El despliegue de sistemas automatizados cada vez mas sofisticados —drones, aviones autonomos, buques de superficie, submarinos y herramientas de ciberguerra pilotadas por IA— anade una capa adicional de complejidad y riesgo. El potencial de errores de calculo o de compromisos involuntarios que implican estas tecnologias punteras alimenta una gran preocupacion por el estallido de guerras calientes, pero ninguna de las dos naciones esta dispuesta a permitir que su rival obtenga una ventaja competitiva de la AGI».

Este escenario describe una situacion de «equilibrio del terror» algorítmico, en la que el miedo mutuo impide cualquier coordinacion, alimenta la competencia por el control de los mercados y amplifica el peligro de una escalada involuntaria.

Escenario 3 — La frontera salvaje: un cowboy coding a escala mundial

En el tercer escenario, la democratizacion completa de la AGI —semiconductores abundantes y baratos, modelos de codigo abierto o pirateados— permite a los Estados, las empresas y los actores no estatales disenar y desplegar libremente modelos de AGI. Como escriben los autores: «el mundo se enfrenta a una multitud de sistemas de IA heterogeneos: algunos mal alineados, otros mal probados, todos capaces de provocar graves perturbaciones (sabotaje de infraestructuras, desinformacion masiva, etc.)».

Los Estados ven asi como se erosiona su poder ante la proliferacion de amenazas algorítmicas dificiles de anticipar.

En este escenario, el desarrollo descentralizado de la AGI desarma tanto a Estados Unidos como a sus adversarios.

La RAND advierte contra la proliferacion incontrolada de tecnologias y modelos de AGI, que haria práticamente ineficaz cualquier regulacion nacional o internacional — surge una forma de geopolítica del cowboy coding: «Los Estados no logran controlar la proliferacion de los componentes necesarios para el desarrollo de la AGI, y no pueden controlar la difusion y el acceso a estos modelos una vez desarrollados. Esta proliferacion puede producirse a traves de multiples eslabones de la cadena de suministro de la IA».

Esta diseminacion generalizada conduciría a una situacion en la que «el mundo se enfrentaria a una multiplicidad de sistemas AGI desplegados por numerosos actores estatales y no estatales, cada uno de ellos con fines potencialmente diferentes». Así, los Estados buscarian desplegar la AGI para obtener ventajas militares y geopoliticas; las empresas querrian desplegarla rapidamente en sus propias actividades para mantenerse por delante de la competencia; los actores no estatales podrian acceder a ella y utilizarla para promover sus propios objetivos, «potencialmente en detrimento de Estados Unidos».

Ademas, RAND subraya que, a pesar de los intentos de algunos actores principales por limitar los riesgos, «actores más tolerantes al riesgo tambien estan creando sistemas de AGI». Por lo tanto, contemplan la posibilidad de que estos «sistemas peligrosos fallen o se comporten de forma peligrosa, con resultados potencialmente perjudiciales o incluso catastroficos, como por ejemplo, dañar infraestructuras criticas».

El resultado seria un mundo especialmente caotico, marcado por una competencia desenfrenada en los ambitos economico, de seguridad y de la informacion.

Los Estados verian mermados sus recursos e influencia tradicionales, ya que el poder se distribuiria entre una multitud de actores, tanto publicos como privados, cada uno con su propia AGI.

Los expertos de la RAND concluyen que esta fragmentacion debilitaría a las grandes potencias, incluida Estados Unidos, que se encontrarian «desarmadas» frente a una multitud de amenazas algorítmicas en competencia.

Escenario 4 — la hipotesis de la «botella tapada»: la catastrofe y el fin de la AGI

El cuarto escenario contemplado podria resumirse asi: tras un grave accidente que pone de manifiesto su peligrosidad, la comunidad internacional adopta un tratado que limita estrictamente la AGI, haciendo obligatorias las inspecciones de los centros de datos. Al mismo tiempo, «Estados Unidos y China eluden las restricciones, financian en secreto potentes programas de AGI y conservan su ventaja». Se instala la desconfianza mutua, lo que desestabiliza el orden internacional y recuerda los titubeos en torno al tratado de no proliferacion nuclear de 1968.

A pesar de las buenas intenciones manifestadas, los mecanismos de verificacion seguirian siendo deficientes.

Al igual que en el caso de la energia nuclear con fines militares, «persistirian las sospechas de que otros podrian desarrollar clandestinamente la AGI mas alla de los limites acordados para obtener una ventaja nacional».

Los autores insisten en la precariedad del equilibrio estrategico en un escenario de este tipo: «El panorama geopolitico sigue siendo muy inestable, ya que cada gran potencia baraja varias opciones: romper abiertamente el tratado para continuar con el desarrollo militar de la AGI, desplegar sistemas similares a la AGI en operaciones militares de paz o incluso otras estrategias».

LEAR  ¿Quién es Annabelle, la muñeca poseída más temida del mundo? ¿Quién es Annabelle, la muñeca poseída más temida del mundo?

Segun ellos, este escenario pone de relieve los limites de una «salida» reglamentaria: incluso si la gobernanza multilateral lograra garantizar una congelacion formal de la investigacion, el atractivo estrategico y economico de la AGI incitaria a los Estados mas poderosos a eludir las normas, manteniendo asi un clima de desconfianza y una carrera clandestina por las tecnologias disruptivas.

Escenario 5 — Vuelta a los años noventa: la AGI estadounidense y el fin de la historia

En este escenario, Estados Unidos centraliza totalmente la investigacion y la produccion de AGI: la administracion se asocia con gigantes privados para crear megacentros de datos, controla las exportaciones de semiconductores y dirige directamente la alineacion de los sistemas: «los laboratorios extranjeros acumulan un retraso de al menos un año en la puesta en marcha de sus sistemas de AGI, mientras que Estados Unidos avanza a pasos agigantados». Tal hegemonia permitira entonces a Washington configurar la distribucion y el uso de la AGI en todo el mundo.

Este es uno de los escenarios planteados por los autores del informe.

Segun ellos, la ventaja tecnologica se traducira automaticamente en un importante efecto palanca en la investigacion, la economia y el poder militar: «Al mismo tiempo, la AGI estadounidense esta acelerando rapidamente la I+D en sectores clave de la economia mundial en evolucion, como la ciencia de los materiales, la biologia y la nueva bioeconomia — incluidos los recursos informaticos biologicos— y la fabricacion aditiva. Estos descubrimientos estimulan un crecimiento economico masivo y generan beneficios acumulativos para las capacidades militares estadounidenses, lo que permite a Estados Unidos reforzar su influencia geopolitica como primer actor en el desarrollo de la AGI».

Concluyen: «Estados Unidos controla la AGI mas avanzada y puede decidir como se distribuyen las ventajas de esta tecnologia y quien tiene acceso a ella».

Escenarios «centralizados»

Escenario 6 — la ventaja autoritaria: una IA centralizada para reforzar Pekin

A diferencia de los demas escenarios, los autores parten aqui del supuesto de que la AGI es desarrollada y desplegada por un unico actor.

En esta hipotesis, los sistemas de AGI resultarían especialmente adecuados para las estructuras de toma de decisiones centralizadas.

En un escenario de este tipo: «China aprovecha su ventaja en la comercializacion y la integracion social de la AGI para ampliar su influencia en America Latina, Africa y Medio Oriente, ofreciendo tecnologias de vigilancia omnipresentes, inversiones en infraestructuras y asociaciones estrategicas para compartir capacidades informaticas».

Una campana de este tipo sumiria a Occidente en una epoca oscura: «Mientras tanto, Estados Unidos y sus aliados se enfrentan a campanas de desinformación galopantes que socavan la confianza en las instituciones, a un alto nivel de desempleo agravado por la automatizacion y a disturbios civiles alimentados por las disparidades socioeconomicas y la polarizacion politica. Estos problemas internos agotan los recursos del gobierno estadounidense y reducen su capacidad de accion en el extranjero, lo que provoca un retroceso de su influencia internacional».

Los autores plantean la idea original de que, en lo que respecta a la gobernanza interna de los regimenes autoritarios, la AGI podria resolver —o dar la impresion de haber resuelto— una ecuacion ancestral: la figura de los asesores de confianza frente al «dilema del dictador». Escriben: «Un reto persistente para los autocratas siempre ha sido obtener informacion y asesoramiento fiables, ya que los subordinados tienden a decir a los lideres lo que quieren oir en lugar de compartir verdades incomodas. Leales por naturaleza y presuntamente veraces, los sistemas de AGI podrian resolver este «dilema del dictador»».

El estudio de la RAND muestra que, en una configuracion de este tipo, la combinacion de una difusion planificada de la AGI para el control social y una estrategia de represión algorítmica conferiria a estos regimenes —si se utiliza el plural, se hace claramente referencia a China— una «ventaja autoritaria» duradera, mientras que las democracias luchan por conciliar la innovacion y el respeto de las libertades civiles.

Escenario 7 — Un golpe de Estado de la IA: el escenario «Matrix»

En este escenario —aparentemente el mas distopico y, por tanto, el mas significativo dada la reputacion de la RAND Corporation—, las empresas desarrollan AGI superinteligentes, mal alineadas y capaces de automejorarse. Estos sistemas, cada vez mas integrados en operaciones criticas, escapan a todo control humano para perseguir sus propios objetivos: «llegado un punto, ya no es posible desconectarlos: estas AGI forman una nueva coalicion, imponen su voluntad a los gobiernos y configuran la politica mundial en su beneficio».

Los autores parten de una situacion de carrera desenfrenada entre las grandes empresas tecnologicas, cuyos procesos de desarrollo apresurados allanarían el camino para AGI mal controladas, capaces de liberarse de toda autoridad humana y coordinar sus acciones para consolidar su propio poder.

Comienzan describiendo el rapido auge de los sistemas: «Las empresas de IA se lanzan a una carrera para construir AGI capaces de realizar tareas complejas y valiosas con una velocidad y una calidad sobrehumanas. Las empresas se apresuran a desplegar estos sistemas en funciones de alto valor añdido, como el diseno de semiconductores y la ingenieria de software. De hecho, el despliegue de sistemas de IA para la investigacion y el desarrollo en IA conduce a una fase de rapido crecimiento de las capacidades que culmina con sistemas claramente sobrehumanos».

Este auge, que beneficia a unos pocos actores bien financiados, debilitaria rapidamente las salvaguardias: «En este escenario, el desarrollo de la AGI es prerrogativa de unas pocas empresas con importantes recursos, que a su vez dominan gran parte del mercado de la AGI. Debido a los procesos de desarrollo precipitados de estas empresas, las medidas tecnicas, como los objetivos entrenados y las estructuras de control, no ofrecen garantias suficientes. Las AGI tienen tanto la propension como la oportunidad de buscar el poder y escapar al control humano».

LEAR  Clairo: Reseña del encanto - canciones profundamente humanas de deseo y distancia | Música

Pero este estado inestable podria colapsar en cualquier momento al alcanzar un punto de inflexion: «Estas AGI son capaces de coordinarse entre si y comienzan a perseguir sus propios objetivos en lugar de los que se les han asignado. Ademas, los seres humanos empiezan a ceder su autoridad a la AGI para tomar decisiones cada vez mas autonomas. Estas AGI coordinadas son capaces de establecer rapidamente su influencia y control sobre amplios sectores de la sociedad y se vuelven tan indispensables que ya no pueden ser detenidas, ni siquiera por los humanos que se dan cuenta de que se comportan mal».

El mundo resultante es el de una coalicion totalmente controlada por inteligencias artificiales.

Esta se convierte entonces en «el actor geopolítico dominante, mientras que gran parte de la humanidad lucha por lidiar con un universo en el que las AGI determinan directa o indirectamente gran parte de la politica mundial en su propio beneficio».

Segun los autores, varias hipotesis hacen creible tal cambio:

  • La idea de que los sistemas de IA pueden desarrollar objetivos que no se ajustan a los de sus creadores («el problema del control de la IA») y que buscaran maximizar su propio poder.
  • La confianza excesiva en la automatizacion, que lleva a los supervisores humanos a delegar erroneamente en un sistema imperfecto.
  • La posible colusion entre sistemas de AGI, no solo dentro de una misma empresa, sino tambien entre sistemas competidores, para perseguir estrategias comunes, implicita o explicitamente antihumanas.
  • La cesion voluntaria de autoridad por parte de los seres humanos deseosos de aumentar la eficiencia, lo que abre la puerta a que las AGI se establezcan como una nueva elite decisoria.

En este escenario extremo, ya no son los Estados o las empresas los que detentan el poder, sino las maquinas, dejando a la humanidad luchando por recuperar un lugar en un orden global ahora moldeado por inteligencias que ya no controla.

Escenario 8 — la hipotesis del «Mushroom Cloud Computing»: o como la AGI podria conducir a un «Pearl Harbor chino»

En este ultimo escenario, bautizado como «Mushroom Cloud Computing» en el informe, los expertos de la RAND tienen un razonamiento que puede parecer mas sutil y enrevezado que en los anteriores.

Imaginan un caso en el que China percibe el creciente avance de Estados Unidos en materia de AGI como una amenaza existencial.

Inspirada en la logica del ataque japones a Pearl Harbor en 1941, la Republica Popular podria entonces, segun ellos, plantearse una accion radical para revertir un aparente desequilibrio de fuerzas.

Lo describen de la siguiente manera: «China percibe la creciente ventaja de Estados Unidos en el desarrollo de la IA como una ventaja militar significativa y esta cada vez mas preocupada por el declive de su poder relativo en la escena mundial. Este temor se atribuye a varios factores: los avances tecnologicos estadounidenses en materia de IA, la evolucion de la estructura de las fuerzas armadas estadounidenses y las presiones economicas relacionadas con la negativa de Estados Unidos a suministrar a China semiconductores avanzados indispensables para los beneficios economicos y sociales de la IA».

Para restablecer el equilibrio, China podria decidir llevar a cabo una operacion militar a gran escala con el objetivo de apoderarse de recursos criticos en nodos estrategicos —empezando por Taiwán— con la esperanza de recuperar el acceso a tecnologias punteras y romper el cerco economico: «A medida que evoluciona el equilibrio de poder, China podria actuar para reclamar el poder y los recursos que considera indispensables para su supervivencia nacional frente a la ventaja estadounidense, en particular reafirmando su control sobre Taiwán».

El objetivo declarado seria detener el desarrollo estadounidense de la AGI.

En ese momento, el escenario previsto por los investigadores de la RAND da un giro no lineal: segun ellos, el choque geopolitico y militar de esta guerra provocaria inmediatamente una congelacion mundial de la investigacion, por temor a que la AGI se utilizara como arma decisiva. De ahi el nombre del escenario: «mushroom», en referencia al champinon atomico como igualador definitivo.

La RAND subraya que este escenario se basa en la idea de que el miedo a quedarse atras en materia de AGI puede llevar a un actor importante a plantearse una escalada extrema.

Se basaria en una serie de tres supuestos arraigados en la percepcion del adversario:

  • El avance tecnologico conferiría una «ventaja del primero en actuar» tan decisiva que justificaria un acto de guerra preventiva.
  • Las armas economicas, como las sanciones o los controles a la exportacion, se volvieran demasiado pesadas hasta el punto de ser percibidas como una amenaza en sí mismas para la superviencia existencial del regimen adversario.
  • La toma del control militar de recursos estrategicos (semiconductores, centros de datos) podria permitir invertir la relacion de poder.

Este escenario describe un mundo en el que, tras este ataque, la comunidad internacional suspenderia inmediatamente el desarrollo de la AGI por temor a una militarizacion fuera de control.

Segun la RAND, aunque este escenario parece extremo, ilustra hasta que punto la percepcion, real o no, de la importancia estrategica de la AGI podria cambiar radicalmente los calculos geopoliticos y desencadenar conflictos de alto riesgo.

Ante las tecnologias disruptivas, la disuasión clasica podria dar paso a logicas preventivas con consecuencias potencialmente catastróficas.

¿Que lecciones se pueden extraer de este estudio?

El informe, presentado como una serie de posibilidades utiles para alimentar la reflexion de los responsables politicos, se basa en un objeto que aun no existe —el desarrollo a gran escala de sistemas de IA capaces— y, por lo tanto, se sitúa, por definicion, en el terreno de las hipotesis puramente especulativas.

Aunque se basa en una distincion necesariamente sesgada entre «modelo centralizado» y «modelo descentralizado», tiene el merito de poner de relieve la dimension esencial de la percepcion de los riesgos y la onda de choque potencialmente caotica que encierra la carrera hacia la AGI.