Selon Cointelegraph, la quĂȘte de l'intelligence gĂ©nĂ©rale artificielle (AGI) demeure un dĂ©fi complexe, comme l'ont soulignĂ© les chercheurs d'Apple qui ont identifiĂ© des difficultĂ©s de raisonnement significatives dans les principaux modĂšles d'IA. MalgrĂ© les avancĂ©es rĂ©centes dans les grands modĂšles de langage (LLM) comme ChatGPT d'OpenAI et Claude d'Anthropic, les capacitĂ©s fondamentales et les limitations de ces modĂšles ne sont pas entiĂšrement comprises, comme dĂ©taillĂ© dans un article de juin intitulĂ© "L'Illusion de la PensĂ©e". Les chercheurs soulignent que les Ă©valuations actuelles se concentrent fortement sur des repĂšres mathĂ©matiques et de codage, en priorisant l'exactitude des rĂ©ponses finales sans Ă©valuer adĂ©quatement les capacitĂ©s de raisonnement des modĂšles d'IA.

La recherche d'Apple contraste avec la croyance répandue selon laquelle l'AGI est imminente. Pour explorer les capacités de raisonnement de l'IA, les chercheurs ont conçu divers jeux de puzzle pour tester à la fois les versions "pensantes" et "non-pensantes" de modÚles tels que Claude Sonnet, o3-mini et o1 d'OpenAI, et les chatbots DeepSeek-R1 et V3. Leurs découvertes révÚlent que les grands modÚles de raisonnement (LRM) en frontiÚre connaissent une chute significative de précision lorsqu'ils sont confrontés à des tùches complexes, échouant à généraliser le raisonnement efficacement. Cela contredit les attentes concernant l'AGI, car ces modÚles ont du mal avec le calcul exact, un raisonnement incohérent et une incapacité à appliquer des algorithmes explicites à travers différents puzzles.

L'étude met également en évidence que les chatbots IA présentent souvent une surpensée, générant des réponses correctes au départ mais s'écartant ensuite d'un raisonnement incorrect. Les chercheurs concluent que les LRM imitent les schémas de raisonnement sans véritablement les intérioriser ou les généraliser, ne parvenant pas à atteindre le niveau de raisonnement de l'AGI. Ces résultats remettent en question les hypothÚses prédominantes sur les capacités des LRM et suggÚrent que les approches actuelles pourraient rencontrer des barriÚres fondamentales à l'atteinte d'un raisonnement généralisable.

L'AGI est considĂ©rĂ©e comme l'objectif ultime du dĂ©veloppement de l'IA, reprĂ©sentant un Ă©tat oĂč les machines peuvent penser et raisonner au mĂȘme niveau que l'intelligence humaine. En janvier, le PDG d'OpenAI, Sam Altman, a exprimĂ© sa confiance dans les progrĂšs de l'entreprise vers la construction de l'AGI, affirmant qu'ils sont plus proches que jamais. De mĂȘme, le PDG d'Anthropic, Dario Amodei, a prĂ©dit que l'AGI pourrait dĂ©passer les capacitĂ©s humaines dans les prochaines annĂ©es, potentiellement d'ici 2026 ou 2027. MalgrĂ© ces projections optimistes, les dĂ©couvertes des chercheurs d'Apple soulignent les dĂ©fis persistants dans la course pour dĂ©velopper l'AGI.