De acordo com o Cointelegraph, a busca pela inteligência geral artificial (AGI) continua sendo um desafio complexo, conforme destacado pelos pesquisadores da Apple, que identificaram dificuldades significativas de raciocínio em modelos de IA líderes. Apesar dos recentes avanços em grandes modelos de linguagem (LLMs) como o ChatGPT da OpenAI e o Claude da Anthropic, as capacidades e limitações fundamentais desses modelos não são totalmente compreendidas, conforme detalhado em um artigo de junho intitulado "A Ilusão do Pensamento". Os pesquisadores enfatizam que as avaliações atuais se concentram fortemente em benchmarks matemáticos e de codificação, priorizando a precisão da resposta final sem avaliar adequadamente as habilidades de raciocínio dos modelos de IA.
A pesquisa da Apple contrasta com a crença generalizada de que a AGI é iminente. Para explorar as capacidades de raciocínio da IA, os pesquisadores projetaram vários jogos de quebra-cabeça para testar tanto versões "pensantes" quanto "não pensantes" de modelos como Claude Sonnet, o o3-mini e o o1 da OpenAI, e os chatbots DeepSeek-R1 e V3. Suas descobertas revelam que os grandes modelos de raciocínio de fronteira (LRMs) experimentam uma queda significativa na precisão quando enfrentam tarefas complexas, falhando em generalizar o raciocínio de forma eficaz. Isso contradiz as expectativas para a AGI, uma vez que esses modelos lutam com cálculos exatos, raciocínio inconsistente e uma incapacidade de aplicar algoritmos explícitos em diferentes quebra-cabeças.
O estudo também destaca que os chatbots de IA frequentemente exibem pensamento excessivo, gerando respostas corretas inicialmente, mas depois se desviando para raciocínios incorretos. Os pesquisadores concluem que os LRMs imitam padrões de raciocínio sem realmente internalizá-los ou generalizá-los, ficando aquém do raciocínio em nível de AGI. Essas percepções desafiam as suposições predominantes sobre as capacidades dos LRMs e sugerem que as abordagens atuais podem estar enfrentando barreiras fundamentais para alcançar um raciocínio generalizável.
A AGI é considerada o objetivo final do desenvolvimento da IA, representando um estado onde as máquinas podem pensar e raciocinar em paridade com a inteligência humana. Em janeiro, o CEO da OpenAI, Sam Altman, expressou confiança no progresso da empresa em direção à construção da AGI, afirmando que eles estão mais perto do que nunca. Da mesma forma, o CEO da Anthropic, Dario Amodei, previu que a AGI poderia superar as capacidades humanas nos próximos anos, potencialmente até 2026 ou 2027. Apesar dessas projeções otimistas, as descobertas dos pesquisadores da Apple ressaltam os desafios contínuos na corrida para desenvolver a AGI.