Los magnates de la tecnología se preparan para el apocalipsis: ¿Debemos preocuparnos?

Se dice que Mark Zuckerberg empezó a construir en el Rancho Koolau, su enorme propiedad de 1,400 acres en la isla hawaiana de Kauai, desde el 2014.

Según un reportaje de la revista Wired, el complejo incluirá un refugio con sus propias fuentes de energía y comida. Sin embargo, los carpinteros y electricistas que trabajan allí tienen prohibido hablar del proyecto por acuerdos de confidencialidad. Un muro de dos metros ocultaba la obra de la vista desde la carretera cercana.

Cuando le preguntaron el año pasado si estaba construyendo un búnker del fin del mundo, el fundador de Facebook dijo simplemente "no". Explicó que el espacio subterráneo de unos 5,000 pies cuadrados es "solo un pequeño refugio, como un sótano".

Pero esto no ha detenido las especulaciones. Lo mismo pasa con su decisión de comprar 11 propiedades en el barrio Crescent Park de Palo Alto, California, donde aparentemente añadió un espacio subterráneo de 7,000 pies cuadrados.

Aunque sus permisos de construcción se refieren a sótanos, según el New York Times, algunos de sus vecinos lo llaman un búnker. O la cueva de un multimillonario.

Zuckerberg gastó unos reportados 110 millones de dólares en añadir casi una docena de propiedades en un vecindario de Palo Alto a su portafolio.

Luego está la especulación alrededor de otros multimillonarios de Silicon Valley. Algunos parecen haber estado comprando terrenos con espacios subterráneos, perfectos para convertirlos en lujosos búnkeres de millones de libras.

Reid Hoffman, cofundador de LinkedIn, ha hablado de un "seguro para el apocalipsis". Él ha afirmado que aproximadamente la mitad de los súper ricos tienen uno, siendo Nueva Zelanda un destino popular para sus casas.

Entonces, ¿realmente podrían estarse preparando para una guerra, los efectos del cambio climático, o algún otro evento catastrófico del que el resto de nosotros no sabemos nada?

En los últimos años, el avance de la inteligencia artificial (IA) solo ha añadido a esa lista de posibles problemas existenciales. Muchos están profundamente preocupados por la gran velocidad del progreso.

Se reporta que Ilya Sutskever, científico jefe y cofundador de la empresa tecnológica Open AI, es uno de ellos.

Para mediados de 2023, la empresa con sede en San Francisco había lanzado ChatGPT -el chatbot que ahora usan cientos de millones de personas en el mundo- y trabajaban rápidamente en actualizaciones.

Pero para ese verano, según un libro de la periodista Karen Hao, el Sr. Sutskever estaba cada vez más convencido de que los científicos informáticos estaban a punto de desarrollar la inteligencia artificial general (IAG) -el punto en el que las máquinas igualan a la inteligencia humana.

En una reunión, el Sr. Sutskever sugirió a sus colegas que debían construir un refugio subterráneo para los mejores científicos de la compañía antes de que una tecnología tan poderosa se lanzara al mundo, informa la Sra. Hao.

"Definitivamente vamos a construir un búnker antes de liberar la IAG", se le cita ampliamente que dijo, aunque no está claro a quién se refería con "nosotros".

Esto arroja luz sobre un hecho extraño: muchos científicos informáticos líderes que trabajan duro para desarrollar una forma de IA muy inteligente, también parecen tener mucho miedo de lo que algún día podría hacer.

LEAR  ¿En qué parte de Europa los trabajadores pierden poder adquisitivo mientras los impuestos suben más rápido que los salarios? (Nota: El texto está visualmente organizado y adaptado al español, respetando las reglas solicitadas.)

Entonces, ¿cuándo exactamente -si es que llega- llegará la IAG? ¿Y podría realmente ser lo suficientemente transformadora como para asustar a la gente normal?

Una llegada ‘más pronto de lo que pensamos’

Multimillonarios tecnológicos han afirmado que la IAG es inminente. Sam Altman, jefe de OpenAI, dijo en diciembre de 2024 que llegará "más pronto de lo que la mayoría de la gente en el mundo piensa".

Sir Demis Hassabis, cofundador de DeepMind, ha predicho que será en los próximos cinco a diez años, mientras que el fundador de Anthropic, Dario Amodei, escribió el año pasado que su término preferido -"IA poderosa"- podría estar con nosotros tan pronto como en 2026.

Otros son escépticos. "Siempre están moviendo la portería", dice Dame Wendy Hall, profesora de ciencias de la computación en la Universidad de Southampton. "Depende de con quién hables". Estamos al teléfono pero casi puedo oír el giro de ojos.

"La comunidad científica dice que la tecnología de IA es increíble", añade, "pero no se acerca nada a la inteligencia humana".

Primero tendrían que ocurrir varios "avances fundamentales", coincide Babak Hodjat, director de tecnología de la empresa tecnológica Cognizant.

Es más, es poco probable que llegue en un solo momento. Más bien, la IA es una tecnología que avanza rápidamente, está en un viaje y hay muchas empresas en todo el mundo compitiendo para desarrollar sus propias versiones.

Pero una razón por la que la idea emociona a algunos en Silicon Valley es que se piensa que es un precursor de algo aún más avanzado: la IS, o inteligencia super artificial -tecnología que supera la inteligencia humana.

Fue en 1958 que el concepto de "la singularidad" se atribuyó póstumamente al matemático de origen húngaro John von Neumann. Se refiere al momento en que la inteligencia de las computadoras avanza más allá de la comprensión humana.

Más recientemente, el libro de 2024 "Génesis", escrito por Eric Schmidt, Craig Mundy y el difunto Henry Kissinger, explora la idea de una tecnología superpoderosa que se vuelve tan eficiente en la toma de decisiones y el liderazgo que terminamos cediéndole el control por completo.

Es una cuestión de cuándo, no de si, argumentan.

¿Dinero para todos, sin necesitar un trabajo?

Aquellos a favor de la IAG y la ISI son casi evangélicos sobre sus beneficios. Argumentan que encontrará nuevas curas para enfermedades mortales, resolverá el cambio climático e inventará una fuente inagotable de energía limpia. Zoe Kleinman
Editora de Tecnología
BBC

Elon Musk ha llegado a afirmar que la inteligencia artificial superinteligente podría traer una era de "ingreso universal alto".

Recientemente, apoyó la idea de que la IA se volverá tan barata y extendida que prácticamente todos querrán su "propio R2-D2 y C-3PO personal" (refiriéndose a los droides de Star Wars).

"Todo el mundo tendrá la mejor atención médica, comida, transporte y todo lo demás. Abundancia sostenible", entusiasmó.

AFP vía Getty Images
Elon Musk ha respaldado la idea de que todos querrán su propio R2-D2 y C-3PO.

LEAR  Discurso del Rey: Cómo será el laborismo | Noticias de política

Por supuesto, también existe un lado alarmante. ¿Podría esta tecnología ser secuestrada por terroristas y usada como un arma enorme, o qué pasa si decide por sí misma que la humanidad es la causa de los problemas del mundo y nos destruye?

"Si es más inteligente que tú, entonces tenemos que mantenerla controlada", advirtió Tim Berners-Lee, creador de la World Wide Web, en una entrevista con la BBC a principios de este mes. "Tenemos que poder apagarla".

Getty Images
"Todo el mundo tendrá la mejor atención médica, comida, transporte y todo lo demás. Abundancia sostenible", una vez entusiasmó el multimillonario Musk.

Los gobiernos están tomando algunas medidas de protección. En Estados Unidos, donde tienen sede muchas empresas líderes en IA, el Presidente Biden aprobó una orden ejecutiva en 2023 que requería que algunas empresas compartieran los resultados de las pruebas de seguridad con el gobierno federal, aunque el Presidente Trump luego revocó parte de la orden, llamándola un "obstáculo" para la innovación.

Mientras tanto, en el Reino Unido, el Instituto de Seguridad de la IA, un organismo de investigación financiado por el gobierno, se estableció hace dos años para comprender mejor los riesgos que plantea la IA avanzada.

Y luego están aquellos súper ricos con sus propios planes de seguro para el apocalipsis.

"Decir que ‘estás comprando una casa en Nueva Zelanda’ es como un guiño, guiño, no digas más", dijo anteriormente Reid Hoffman. Lo mismo supuestamente aplica para los búnkers.

Pero hay un defecto claramente humano.

Una vez conocí a un ex guardaespaldas de un multimillonario con su propio "búnker", quien me dijo que la primera prioridad de su equipo de seguridad, si esto realmente sucediera, sería eliminar a dicho jefe y meterse en el búnker ellos mismos. Y no parecía estar bromeando.

¿Es todo una tontería alarmista?

Neil Lawrence es profesor de aprendizaje automático en la Universidad de Cambridge. Para él, todo este debate en sí mismo es un absurdo.

"La noción de Inteligencia General Artificial es tan absurda como la noción de un ‘Vehículo General Artificial’", argumenta. "El vehículo correcto depende del contexto. Usé un Airbus A350 para volar a Kenia, uso un coche para llegar a la universidad cada día, camino hasta la cafetería… No hay ningún vehículo que pueda hacer todo esto".

Para él, hablar de AGI es una distracción.

Smith Collection/Gado/Getty Images
Los líderes tecnológicos en Silicon Valley, donde tienen sede las empresas importantes de IA del mundo, están promocionando la perspectiva de la inteligencia artificial general.

"La tecnología que [ya] hemos construido permite, por primera vez, que la gente normal hable directamente con una máquina y potencialmente logre que haga lo que ellos pretenden. Eso es absolutamente extraordinario… y completamente transformador".

"La gran preocupación es que estamos tan atraídos por las narrativas de las grandes tecnológicas sobre la AGI que estamos pasando por alto las formas en que necesitamos mejorar las cosas para la gente".

Las herramientas actuales de IA están entrenadas con montañas de datos y son buenas para detectar patrones: ya sean signos de tumores en escáneres o la palabra que probablemente siga a otra en una secuencia particular. Pero no "sienten", por muy convincentes que parezcan sus respuestas.

LEAR  Fabio Wardley: Si venzo a Joseph Parker, el campeón de los pesos pesados, Oleksandr Usyk, querrá enfrentarse a mí

"Hay algunas formas ‘tramposas’ de hacer que un Modelo de Lenguaje Grande (la base de los chatbots de IA) actúe como si tuviera memoria y aprendiera, pero estas son insatisfactorias e bastante inferiores a los humanos", dice el Sr. Hodjat.

Vince Lynch, CEO de IV.AI con sede en California, también es cauteloso con las declaraciones exageradas sobre la AGI.

"Es un gran marketing", dice. "Si eres la empresa que está construyendo lo más inteligente que haya existido, la gente querrá darte dinero".

Añade: "No es algo que esté a dos años de distancia. Requiere tanto poder de computación, tanta creatividad humana, tanto ensayo y error".

Cuando se le pregunta si cree que la AGI llegará a materializarse, hay una larga pausa. "Realmente no lo sé".

Inteligencia sin conciencia

En cierto modo, la IA ya ha superado a los cerebros humanos. Una herramienta de IA generativa puede ser una experta en historia medieval en un minuto y resolver ecuaciones matemáticas complejas al siguiente.

Algunas empresas tecnológicas dicen que no siempre saben por qué sus productos responden de la manera en que lo hacen. Meta dice que hay algunos signos de que sus sistemas de IA se están mejorando a sí mismos.

Getty Images News
Sam Altman una vez especuló sobre unirse a Peter Thiel en una propiedad remota en Nueva Zelanda en caso de un desastre global.

En última instancia, sin embargo, no importa cuán inteligentes se vuelvan las máquinas, biológicamente el cerebro humano todavía gana.

Tiene about 86 mil millones de neuronas y 600 billones de sinapsis, muchos más que sus equivalentes artificiales. El cerebro no necesita pausar entre interacciones y se adapta constantemente a nueva información.

"Si le dices a un humano que se ha encontrado vida en un exoplaneta, lo aprenderá inmediatamente y afectará su visión del mundo en el futuro. Para un Modelo de Lenguaje Grande, solo lo sabrán mientras sigas repitiéndoselo como un hecho", dice el Sr. Hodjat.

"Los LLM tampoco tienen meta-cognición, lo que significa que no saben exactamente lo que saben. Los humanos parecen tener una capacidad introspectiva, a veces referida como conciencia, que les permite saber lo que saben".

Es una parte fundamental de la inteligencia humana, y una que aún no ha sido replicada en un laboratorio.

Créditos de la imagen principal: The Washington Post via Getty Images/ Getty Images MASTER. Zoe Kleinman
Editora de Tecnología
BBC

La imagen principal muestra a Mark Zuckerberg (abajo) y una imagen genérica de un búnker no identificado en un lugar desconocido (arriba).

BBC InDepth es la sección en la página web y la aplicación para el mejor análisis. Ofrece perspectivas nuevas que desafían las suposiciones y reportajes profundos sobre los temas más importantes del momento. También presentamos contenido interesante de BBC Sounds y iPlayer. Puedes enviarnos tus comentarios sobre la sección InDepth presionando el botón abajo.