A plataforma ChatGPT da OpenAI está enfrentando interrupções de serviço que começaram nas primeiras horas de terça-feira, afetando usuários em vários continentes. A interrupção impactou o acesso ao ChatGPT, à ferramenta de IA Sora de texto para vídeo e APIs associadas.
Relatos de problemas começaram a surgir no Downdetector por volta das 7h UTC, embora a OpenAI não tenha reconhecido os problemas publicamente até as 9h, através de sua página de status. Naquele momento, a empresa confirmou "taxas de erro elevadas e latência" em vários serviços, afirmando que está "continuando a investigar" o assunto.
Às 11h, a OpenAI emitiu uma atualização afirmando que as taxas de erro elevadas estavam relacionadas principalmente a 14 APIs, 4 incidentes no Sora e 21 componentes do ChatGPT. A empresa classificou a interrupção do serviço como uma "interrupção parcial."
ChatGPT ainda responde para alguns usuários
Usuários afetados que tentavam interagir com o ChatGPT foram recebidos com a mensagem de erro: "Hmm... algo parece ter dado errado," conforme compartilhado por vários usuários nas redes sociais.
Embora alguns assinantes tenham relatado desempenho lento e atrasos significativos na geração de respostas do chatbot, outros disseram que o serviço estava funcionando normalmente para eles.
De acordo com métricas de rastreamento de interrupções, mais de 1.000 reclamações foram registradas apenas no Reino Unido, com quase 500 relatadas nos Estados Unidos dentro de poucas horas após os relatos iniciais.
Cerca de 90% dos relatos envolviam problemas com a versão web do ChatGPT, enquanto o aplicativo móvel e os serviços da API representaram menos de 10% das reclamações. Alguns usuários também relataram problemas com funções de login e conectividade da API.
Em 2025, houve três incidentes importantes de interrupção do ChatGPT. No início de janeiro, uma interrupção parcial afetou a capacidade do ChatGPT de gerar conteúdo de imagem via DALL·E e diminuiu as respostas do GPT-4, mas foi resolvida em poucas horas.
Outro incidente importante ocorreu no final de abril, quando tanto o aplicativo web do ChatGPT quanto os serviços da API ficaram offline intermitentemente durante um período de dois dias. Na época, a OpenAI citou problemas com seu provedor de nuvem, mas não deu mais explicações públicas além de confirmar uma degradação do serviço em sua página de status.
Problemas de desempenho após o lançamento do AVM e do recurso de tradução
A interrupção ocorre em um momento em que a OpenAI está lançando atualizações para seu recurso Modo de Voz Avançado (AVM) no ChatGPT para assinantes pagos.
Em sua declaração recente, a empresa de IA afirmou que os novos recursos têm interações mais naturais, semelhantes às humanas, por meio da voz e oferecem tradução de fala em tempo real entre vários idiomas sem interrupção.
As melhorias estão incorporadas no modelo GPT-4o da OpenAI, um sistema nativamente multimodal capaz de entender e gerar áudio.
De acordo com as notas de lançamento da empresa de 7 de junho de 2025, os usuários agora podem simplesmente instruir a interface de voz do ChatGPT a traduzir entre idiomas, e ela continuará fazendo isso em tempo real até que seja direcionada de outra forma.
A OpenAI demonstrou pela primeira vez a tradução de fala ao vivo em maio de 2024 e a seguiu com a tecnologia de interação por voz lançada em setembro do mesmo ano.
A nova "API em Tempo Real", que permite que desenvolvedores integrem funcionalidade de fala para fala em seus aplicativos, estreou em outubro de 2024, e opções de voz adicionais foram adicionadas em abril de 2025.
"Isso muda tudo se você estiver viajando para o exterior. O ChatGPT agora pode permanecer em modo de tradução, sem necessidade de reiniciar, apenas fale. A nova voz soa muito mais humana. Mais emoção, melhor ritmo. Está ficando assustadoramente bom", avaliou um usuário na plataforma social X.
Ainda assim, de acordo com relatos dos primeiros testes do recurso, há alguns problemas de qualidade. A empresa admitiu que os usuários podem encontrar inconsistências ocasionais na saída de áudio, como irregularidades de tom e pitch, dependendo da voz selecionada.
"Esperamos melhorar a consistência do áudio ao longo do tempo", afirmou a OpenAI em suas notas de lançamento. Também explicou que os problemas são notáveis com certas opções de voz e podem afetar a experiência do usuário em traduções ao vivo ou em telefones que utilizam suporte de acessibilidade.
Suas notícias sobre criptomoedas merecem atenção - a KEY Difference Wire coloca você em mais de 250 sites principais