Estudio de Apple revela que la IA no es tan inteligente después de todo

Apple prueba la IA. Crédito: JHVEPhoto, Shutterstock

Apple ha planteado serias preocupaciones sobre el futuro de la inteligencia artificial en un nuevo estudio publicado en junio de 2025, revelando que los sistemas avanzados denominados Modelos de Razonamiento Amplio (LRMs) experimentan un “colapso total de precisión” al enfrentarse a tareas complejas.

Publicado en el artículo La Ilusión del Pensamiento, los hallazgos sugieren que las herramientas actuales de IA podrían fallar de manera fundamental bajo presión, a pesar de su creciente presencia en la vida cotidiana.

Apple prueba o3 de OpenAI, Gemini de Google, DeepSeek y más

El estudio de Apple evaluó modelos de razonamiento líderes como o3 de OpenAI, Gemini Thinking de Google, Claude 3.7 Sonnet-Thinking de Anthropic y DeepSeek-R1 mediante acertijos lógicos como la Torre de Hanói y el Cruce del Río. Estas pruebas revelaron caídas severas en el rendimiento a medida que aumentaba la complejidad, hasta el punto en que los modelos dejaban de intentarlo.

Lo más leído en Euro Weekly News

Los investigadores escribieron: “Primero, a pesar de sus sofisticados mecanismos de autorreflexión aprendidos mediante aprendizaje por refuerzo, estos modelos no desarrollan capacidades generalizables de resolución de problemas para tareas de planificación, con un rendimiento que colapsa a cero más allá de un umbral de complejidad”.

Apple identificó tres fases distintas de rendimiento:

  • Baja complejidad: Los modelos estándar (no de razonamiento) funcionaron mejor y fueron más eficientes.
  • Media complejidad: Los LRMs mostraron cierta ventaja, resolviendo tareas más difíciles mediante razonamientos más largos y detallados.
  • Alta complejidad: Ambos tipos de modelos fallaron por completo, incluso con el algoritmo correcto proporcionado.

El crítico de IA Gary Marcus calificó los hallazgos de Apple como “bastante devastadores” y argumentó que socavan las esperanzas de que la IA actual pueda evolucionar hacia una Inteligencia General Artificial (AGI).

En su boletín, citado por The Guardian, Marcus dijo: “Cualquiera que piense que los LLMs son una ruta directa hacia el tipo de AGI que podría transformar la sociedad para bien se está engañando a sí mismo”.

El estudio de Apple también reveló una paradoja inesperada. En problemas simples, los LRMs sobrepiensan frecuentemente, dando respuestas correctas temprano pero explorando opciones incorrectas, desperdiciando recursos. En problemas difíciles, ocurre lo contrario: los modelos subpiensan, reduciendo el esfuerzo de razonamiento a pesar de la mayor dificultad.

Apple también probó qué ocurre cuando se les da a los modelos el algoritmo exacto para resolver un acertijo. Sorprendentemente, no hubo diferencia. Incluso con instrucciones paso a paso, modelos como Claude 3.7 Sonnet-Thinking aún fallaban en resolver puzzles complejos como la Torre de Hanói después de cierto número de movimientos.

Andrew Rogoyski del Instituto para IA Centrada en Personas de la Universidad de Surrey dijo a The Guardian que el estudio de Apple podría señalar un callejón sin salida en el desarrollo de la IA.

“El hallazgo de que los modelos de razonamiento amplio pierden el hilo en problemas complejos, mientras funcionan bien en problemas de media y baja complejidad, implica que estamos ante un posible punto muerto en los enfoques actuales”, afirmó.

¿Estamos chocando contra un muro con la IA?

El artículo de Apple transmite un mensaje crítico: incluso los modelos de razonamiento de IA más avanzados hoy solo pueden ‘pensar’ hasta cierto punto. Más allá de eso, o se esfuerzan demasiado o se rinden. Eso no es inteligencia; es reconocimiento de patrones con límites.

Ver todas las noticias de tecnología.

LEAR  Clásico del Desierto de Dubai: Ewen Ferguson lidera en la segunda ronda después de un final extraño con Rory McIlroy nueve golpes por detrás | Noticias de Golf