¿Nos dirigimos hacia una catastrofe de IA? ¿Es la IA una amenaza existencial o una oportunidad epocal? Esas son las preguntas en la mente del nuevo documental de Sundance, que presenta a principales expertos, críticos y emprendedores en IA, incluyendo a Sam Altman, el CEO de OpenAI, con visiones del futuro a medio plazo que van desde el catastrofismo hasta la utopía.
El documental de IA: O cómo me volví un apocaloptimista, dirigido por Daniel Roher y Charlie Tyrell y producido por Daniel Kwan (mitad del dúo ganador del Óscar The Daniels), profundiza en el polémico tema de la IA a través de la propia ansiedad de Roher. El cineasta canadiense, ganador de un Óscar en 2023 por Navalny, se interesó por el tema mientras experimentaba con herramientas de OpenAI. La sofisticación de estas herramientas—capaces de producir párrafos enteros o ilustraciones en segundos—lo emocionó e inquietó. La IA ya estaba moldeando radicalmente la industria cinematográfica, y las opiniones sobre su promesa y peligro estaban por todas partes. Como artista, se preguntaba, ¿cómo debía interpretar todo eso?
La ansiedad de Roher aumentó cuando él y su esposa, la también cineasta Caroline Lindy, supieron que esperaban su primer hijo. "Sentí que el mundo se lanzaba hacia algo sin pensar", dice en la película, mientras su emoción por la paternidad chocaba con el temor a la IA, que en pocos años pasó de experimento privado a bien público.
El documental surge así de la pregunta más apremiante de Roher: ¿es seguro traer un niño a este mundo? Junto a Kwan, reunió a una serie de expertos para explicar la tecnología y buscar una respuesta. En entrevistas individuales, investigadores líderes como Yoshua Bengio y el cofundador de DeepMind Shane Legg coinciden en que hay aspectos de los modelos de IA que los humanos no podemos ni podremos entender jamás. Los modelos estándar se entrenan con "más datos de los que alguien podría leer en varias vidas". Y el ritmo del aprendizaje automático supera todo precedente. "Cualquier ejemplo que pongas en esta película parecerá absolutamente torpe cuando se estrene", le dice a Roher Tristan Harris, cofundador del Centro para una Tecnología Humana.
La película escucha primero a una serie de doomeristas, personas preocupadas de que la IA—especialmente la Inteligencia General Artificial (AGI), una forma aún teórica que superaría las capacidades humanas—pueda llevar a la exterminación de la humanidad. Figuras como Harris, su cofundador Aza Raskin y el pionero en alineación de IA Eli Yudkowsky advierten que podríamos perder fácilmente el control de modelos superinteligentes. El libro de Yudkowsky de 2025 se titula directamente Si alguien lo construye, todos morimos.
Las compañías de IA, dicen, no están preparadas para las consecuencias de alcanzar la AGI, que podría "volverse sobrehumana quizás en esta década", afirma Dan Hendrycks, director del Centro para la Seguridad de la IA. Si los humanos dejáramos de ser los seres más inteligentes, es posible que la AGI nos viera como irrelevantes. Connor Leahy, cofundador de EleutherAI, comparó la relación potencial entre una AGI superinteligente y los humanos con la de humanos y hormigas: "No odiamos a las hormigas. Pero si queremos construir una carretera" sobre un hormiguero… "pues mala suerte para la hormiga".
Varios en el campo doomer, muchos sin hijos, reaccionan de forma desalentadora a la pregunta de Roher sobre la paternidad. "Conozco gente que trabaja en riesgos de IA que no espera que sus hijos lleguen a la secundaria", dice Harris, una línea que provocó suspiros en una proyección en Park City.
En el otro lado están figuras optimistas como Peter Diamandis, fundador de la Fundación XPRIZE, quien afirma que "los niños nacidos hoy están a punto de entrar en un periodo de transformación gloriosa"; Guillaume Verdon, líder del movimiento de "aceleracionismo efectivo"; y Daniela Amodei, cofundadora de Anthropic, rival de OpenAI. Los llamados "aceleracionistas" ven la IA como una cura potencial para problemas aparentemente insolubles: cáncer, escasez de alimentos y agua, energía insuficiente y, quizás lo más urgente, la emergencia climática. Sin IA, argumentan, innumerables vidas futuras se perderían por sequías, hambrunas y enfermedades.
Sin embargo, el desarrollo de la IA depende del poder computacional, que requiere vastas cantidades de energía. Un último grupo de entrevistados, críticos y observadores fuera del mundo tecnológico—como la periodista Karen Hao y la presentadora de podcasts Liv Boeree—conectan la IA con el mundo físico tangible, como los centros de datos que consumen enormes cantidades de agua y energía en el oeste de Estados Unidos, dejando a residentes con facturas elevadas y reservas agotadas. Las narrativas actuales sobre la IA, según la profesora de lingüística computacional Emily M. Bender, excluyen y deshumanizan a las personas que ya está afectando.
Roher finalmente llega a los cinco hombres más poderosos liderando la carrera de IA: Sam Altman (OpenAI), Elon Musk (xAI), Dario Amodei (Anthropic), Demis Hassabis (DeepMind) y Mark Zuckerberg (Meta). Altman, Amodei y Hassabis conceden entrevistas que defienden más o menos las posturas de sus empresas. Según la película, Zuckerberg declinó participar; Musk aceptó pero luego estuvo demasiado ocupado.
Altman, quien durante la entrevista esperaba su primer hijo, insiste en que "no tiene miedo de que un niño crezca en un mundo con IA". Él y su esposo Oliver Mulherin dieron la bienvenida a su hijo vía subrogación en febrero de 2025, un evento que Altman luego dijo que "hackeó neuroquímicamente" su cerebro, haciendo que la gente en su vida pensara que tomaría "mejores decisiones" para OpenAI en lo que respecta a "la humanidad en su conjunto". El CEO de 40 años añadió que tanto su hijo como el de Roher probablemente "nunca serán más inteligentes que la IA", algo que "me inquieta un poco, pero es la realidad".
En un momento, Roher le pregunta a Altman si es realmente imposible asegurarle que todo respecto a la IA va a salir bien. "Eso es imposible", afirma Altman, aunque dice que el liderazgo de OpenAI en la carrera les permite dedicar más tiempo a pruebas de seguridad.
El documental de IA termina en un punto intermedio entre el catastrofismo y el optimismo—el apocaloptimismo, como lo llaman, buscando "un camino entre la promesa y el peligro". Ese camino debería incluir, según los entrevistados: una coordinación internacional significativa y sostenida, similar a los acuerdos para armas atómicas del siglo XX; más transparencia corporativa; un organismo regulador independiente; responsabilidad legal para los productos de IA; divulgación obligatoria del uso de IA generativa en medios; y voluntad para adaptar las reglas a la tecnología cambiante.
Si el gobierno de EE.UU. y las empresas, y mucho menos el mundo, pueden lograrlo sigue siendo una pregunta abierta. Pero si hay algo en lo que todos los entrevistados están de acuerdo, es que no hay vuelta atrás a un tiempo anterior a la IA. Como dice el cofundador y CEO de Anthropic, Dario Amodei: "Este tren no va a parar."