De acordo com a Cointelegraph, a busca por inteligência geral artificial (AGI) continua sendo um desafio complexo, como destacado pelos pesquisadores da Apple, que identificaram dificuldades de raciocínio significativas em modelos de IA líderes. Apesar dos avanços recentes em grandes modelos de linguagem (LLMs) como o ChatGPT da OpenAI e o Claude da Anthropic, as capacidades e limitações fundamentais desses modelos não são totalmente compreendidas, conforme detalhado em um artigo de junho intitulado "A Ilusão do Pensamento." Os pesquisadores enfatizam que as avaliações atuais se concentram fortemente em benchmarks matemáticos e de codificação, priorizando a precisão da resposta final sem avaliar adequadamente as habilidades de raciocínio dos modelos de IA.

A pesquisa da Apple contrasta com a crença generalizada de que a AGI é iminente. Para explorar as capacidades de raciocínio da IA, os pesquisadores projetaram vários jogos de quebra-cabeça para testar tanto versões "pensantes" quanto "não pensantes" de modelos como Claude Sonnet, o o3-mini e o o1 da OpenAI, e os chatbots DeepSeek-R1 e V3. As descobertas revelam que modelos de raciocínio de grande escala (LRMs) experimentam uma queda significativa na precisão quando enfrentam tarefas complexas, falhando em generalizar o raciocínio de forma eficaz. Isso contradiz as expectativas para a AGI, já que esses modelos lutam com cálculos exatos, raciocínio inconsistente e uma incapacidade de aplicar algoritmos explícitos em diferentes quebra-cabeças.

O estudo também destaca que os chatbots de IA muitas vezes exibem excesso de raciocínio, gerando respostas corretas inicialmente, mas depois se desviando para raciocínios incorretos. Os pesquisadores concluem que os LRMs imitam padrões de raciocínio sem realmente internalizá-los ou generalizá-los, ficando aquém do raciocínio em nível AGI. Essas percepções desafiam as suposições predominantes sobre as capacidades dos LRMs e sugerem que as abordagens atuais podem estar enfrentando barreiras fundamentais para alcançar raciocínios generalizáveis.

A AGI é considerada o objetivo máximo do desenvolvimento de IA, representando um estado onde as máquinas podem pensar e raciocinar em paridade com a inteligência humana. Em janeiro, o CEO da OpenAI, Sam Altman, expressou confiança no progresso da empresa em direção à construção da AGI, afirmando que estão mais perto do que nunca. Da mesma forma, o CEO da Anthropic, Dario Amodei, previu que a AGI poderia superar as capacidades humanas nos próximos anos, potencialmente até 2026 ou 2027. Apesar dessas projeções otimistas, as descobertas dos pesquisadores da Apple ressaltam os desafios contínuos na corrida para desenvolver a AGI.