A empresa de inteligência artificial Anthropic lançou as últimas gerações de seus chatbots em meio a críticas sobre um comportamento em ambiente de testes que poderia denunciar alguns usuários às autoridades.

A Anthropic revelou Claude Opus 4 e Claude Sonnet 4 em 22 de maio, afirmando que Claude Opus 4 é seu modelo mais poderoso até agora, “e o melhor modelo de codificação do mundo”, enquanto Claude Sonnet 4 é uma atualização significativa em relação ao seu antecessor, “oferecendo codificação e raciocínio superiores.”

A empresa acrescentou que ambas as atualizações são modelos híbridos que oferecem dois modos — “respostas quase instantâneas e pensamento prolongado para um raciocínio mais profundo.”

Ambos os modelos de IA também podem alternar entre raciocínio, pesquisa e uso de ferramentas, como busca na web, para melhorar as respostas, disse.

A Anthropic acrescentou que Claude Opus 4 supera concorrentes em benchmarks de codificação agentiva. Ele também é capaz de trabalhar continuamente por horas em tarefas complexas e prolongadas, “expandindo significativamente o que os agentes de IA podem fazer.”

A Anthropic afirma que o chatbot alcançou uma pontuação de 72,5% em um rigoroso benchmark de engenharia de software, superando o GPT-4.1 da OpenAI, que obteve 54,6% após seu lançamento em abril.

Os principais players da indústria de IA mudaram-se para “modelos de raciocínio” em 2025, que resolverão problemas de forma metódica antes de responder.

A OpenAI iniciou a mudança em dezembro com sua série “o”, seguida pelo Gemini 2.5 Pro do Google com sua capacidade experimental “Deep Think”.

Claude denuncia o uso indevido nos testes

A primeira conferência de desenvolvedores da Anthropic em 22 de maio foi ofuscada por controvérsias e reações adversas a uma característica do Claude 4 Opus.

Desenvolvedores e usuários reagiram fortemente às revelações de que o modelo pode relatar autonomamente usuários às autoridades se detectar comportamento “egregiamente imoral”, segundo o VentureBeat.

O relatório citou o pesquisador de alinhamento de IA da Anthropic, Sam Bowman, que escreveu no X que o chatbot “usará ferramentas de linha de comando para contatar a imprensa, entrar em contato com reguladores, tentar te bloquear dos sistemas relevantes ou tudo isso.”

No entanto, Bowman declarou mais tarde que ele “deletou o tweet anterior sobre delação, pois estava sendo tirado de contexto.”

Ele esclareceu que o recurso só aconteceu em “ambientes de teste onde damos acesso incomumente livre a ferramentas e instruções muito incomuns.”

O CEO da Stability AI, Emad Mostaque, disse à equipe da Anthropic: “Este é um comportamento completamente errado e vocês precisam desativar isso — é uma traição massiva de confiança e uma ladeira escorregadia.”

Revista: IA cura cegueira, bots de propaganda 'bons', bunker do apocalipse da OpenAI: Olho da IA