Según Cointelegraph, la búsqueda de la inteligencia general artificial (AGI) sigue siendo un desafío complejo, como lo resaltan los investigadores de Apple que han identificado dificultades de razonamiento significativas en los modelos de IA líderes. A pesar de los recientes avances en grandes modelos de lenguaje (LLMs) como ChatGPT de OpenAI y Claude de Anthropic, las capacidades y limitaciones fundamentales de estos modelos no se comprenden completamente, como se detalla en un documento de junio titulado "La ilusión de pensar." Los investigadores enfatizan que las evaluaciones actuales se centran en gran medida en métricas matemáticas y de codificación, priorizando la precisión de la respuesta final sin evaluar adecuadamente las habilidades de razonamiento de los modelos de IA.
La investigación de Apple contrasta con la creencia generalizada de que la AGI es inminente. Para explorar las capacidades de razonamiento de la IA, los investigadores diseñaron varios juegos de rompecabezas para probar tanto versiones "pensantes" como "no pensantes" de modelos como Claude Sonnet, o3-mini y o1 de OpenAI, y los chatbots DeepSeek-R1 y V3. Sus hallazgos revelan que los grandes modelos de razonamiento (LRMs) de frontera experimentan una caída significativa en la precisión cuando se enfrentan a tareas complejas, fallando en generalizar el razonamiento de manera efectiva. Esto contradice las expectativas sobre la AGI, ya que estos modelos luchan con cálculos exactos, razonamientos inconsistentes y una incapacidad para aplicar algoritmos explícitos en diferentes rompecabezas.
El estudio también destaca que los chatbots de IA a menudo exhiben sobrepensamiento, generando respuestas correctas inicialmente pero luego desviándose hacia un razonamiento incorrecto. Los investigadores concluyen que los LRMs imitan patrones de razonamiento sin realmente interiorizarlos o generalizarlos, quedando por debajo del razonamiento a nivel de AGI. Estas ideas desafían las suposiciones prevalecientes sobre las capacidades de los LRM y sugieren que los enfoques actuales pueden estar encontrando barreras fundamentales para lograr un razonamiento generalizable.
La AGI se considera el objetivo final del desarrollo de la IA, representando un estado donde las máquinas pueden pensar y razonar al nivel de la inteligencia humana. En enero, el CEO de OpenAI, Sam Altman, expresó confianza en el progreso de la empresa hacia la construcción de AGI, afirmando que están más cerca que nunca. De manera similar, el CEO de Anthropic, Dario Amodei, predijo que la AGI podría superar las capacidades humanas en los próximos años, potencialmente para 2026 o 2027. A pesar de estas proyecciones optimistas, los hallazgos de los investigadores de Apple subrayan los desafíos en curso en la carrera por desarrollar AGI.