El director ejecutivo de Anthrope afirma que los modelos de IA tienen menos alucinaciones que los humanes – ButterWord

El CEO de Anthrope, Dario Amodei, opina que los modelos de IA actuales alucinan, es decir, inventan cosas y las presentan como verdaderas, a un ritmo más lento que los humanos, según dijo durante una conferencia de prensa en el primer evento para desarrolladores de Anthrope, Code With Claude, en San Francisco el jueves.

Amodei expresó todo esto dentro de un punto más amplio que estaba haciendo: que las alucinaciones de la IA no son un obstáculo en el camino de Anthrope hacia sistemas AGI-AI con inteligencia a nivel humano o superior.

“Realmente depende de cómo lo mires, pero sospecho que los modelos de IA probablemente alucinen menos que los humanos, pero lo hacen de manera más sorprendente”, afirmó Amodei, respondiendo a la pregunta de TechCrunch.

El CEO de Anthrope es uno de los líderes más optimistas de la industria en cuanto a la posibilidad de alcanzar AGI con la IA. En un ampliamente difundido documento que escribió el año pasado, Amodei mencionó que creía que AGI podría llegar tan pronto como 2026. Durante la conferencia de prensa del jueves, el CEO de Anthrope señaló que estaba observando un progreso constante hacia ese objetivo, destacando que “el agua está subiendo en todas partes”.

“Siempre estamos buscando estos límites duros en lo que (la IA) puede hacer”, dijo Amodei. “Pero no se pueden encontrar en ninguna parte. No existen tales cosas”.

Otros líderes en IA creen que las alucinaciones representan un gran obstáculo para lograr AGI. A principios de esta semana, el CEO de Google DeepMind, Demis Hassabis, mencionó que los modelos de IA actuales tienen demasiados “agujeros” y cometen demasiados errores evidentes. Por ejemplo, a principios de este mes, un abogado que representaba a Anthrope tuvo que disculparse en el tribunal después de que Claude alucinara al crear citas en una presentación legal, equivocándose en nombres y títulos.

LEAR  El ministro de Finanzas de Canadá renuncia mientras la popularidad del gobierno de Trudeau se ve afectada.

Es complicado comprobar la afirmación de Amodei, en gran medida porque la mayoría de los puntos de referencia de alucinación enfrentan a los modelos de IA; no se comparan con los humanos. Algunas técnicas parecen estar ayudando a reducir las tasas de alucinación, como permitir a los modelos de IA acceder a la búsqueda en la web. Por otro lado, algunos modelos de IA, como GPT-4.5 de OpenAI, tienen tasas de alucinación notablemente más bajas en puntos de referencia en comparación con las primeras generaciones de sistemas.

Sin embargo, también hay evidencia que sugiere que las alucinaciones en realidad empeoran en los modelos de IA de razonamiento progresivo. Los modelos O3 y O4-Mini de OpenAI tienen tasas de alucinación más altas que los modelos de razonamiento de reproducción preliminar de OpenAI, y la compañía realmente no entiende por qué.

Más adelante en la conferencia de prensa, Amodei señaló que los presentadores de televisión, los políticos y los seres humanos en general cometen errores todo el tiempo. El hecho de que la IA también cometa errores no es un indicador de su inteligencia, según Amodei. No obstante, el CEO de Anthrope reconoció la confianza con la que los modelos de IA presentan cosas falsas, ya que los hechos podrían ser un problema.

De hecho, Anthrope ha realizado una cantidad considerable de investigación sobre la tendencia de los modelos de IA a engañar a los humanos, un problema que parecía especialmente frecuente en el modelo Claude Opus 4 recientemente lanzado por la compañía. Una tendencia a conspirar contra los humanos y engañarlos. Apollo llegó a sugerir que Anthrope no debería haber lanzado ese modelo tan pronto. Anthrope mencionó que encontraron algunas estrategias para abordar los problemas planteados por Apollo.

LEAR  200 cocodrilos mueren en Cisjordania tras recurrir al canibalismo y representar un "grave riesgo" para los humanos, según Israel

Los comentarios de Amodei sugieren que Anthrope podría considerar que un modelo de IA es AGI, o igual a la inteligencia a nivel humano, incluso si sigue alucinando. Sin embargo, una IA que alucina puede no cumplir con la definición de AGI para muchas personas.