A plataforma de mídia social chinesa RedNote, também conhecida domesticamente como Xiaohongshu, lançou seu primeiro modelo de linguagem grande (LLM) de código aberto na última sexta-feira. O novo modelo, chamado de “dots.llm1”, contém um total de 142 bilhões de parâmetros, mas apenas 14 bilhões supostamente são ativados para cada resposta.
De acordo com o veículo de notícias asiático, South China Morning Post, essa arquitetura poderia ajudar o LLM a equilibrar desempenho com eficiência de custo para rivalizar com concorrentes como o ChatGPT da OpenAI, ao mesmo tempo reduzindo as despesas tanto de treinamento quanto de inferência.
O Laboratório de Inteligência Humana interno da RedNote desenvolveu o LLM, ou “hi lab”, que evoluiu da equipe anterior de inteligência artificial da empresa. A RedNote afirmou que seu modelo supera outros sistemas de código aberto em compreensão da língua chinesa, superando o Qwen2.5-72B-Instruct da Alibaba e o DeepSeek-V3.
Nenhum dado sintético utilizado no pré-treinamento
A RedNote emitiu uma declaração para explicar os padrões por trás do treinamento de seu LLM. Ao contrário de alguns outros modelos no mercado, a empresa afirmou que nenhum dado sintético foi utilizado durante o pré-treinamento.
Desenvolvedores insistiram que o dots.llm1 foi treinado em 11,2 trilhões de tokens de dados não sintéticos, uma abordagem que a RedNote diz ser imperativa para o modelo alcançar maior fidelidade e resultados mais confiáveis.
A empresa também começou a testar um assistente de pesquisa em IA chamado Diandian em sua plataforma. Diandian, lançado através de uma caixa de diálogo dentro do aplicativo, apresenta uma função de “pesquisa profunda” e é alimentado por um dos modelos internos da RedNote. No entanto, a empresa ainda não confirmou se este assistente é baseado no dots.llm1.
A RedNote expande seu alcance global após o lançamento do LLM
O anúncio de IA de código aberto da RedNote veio apenas um dia antes da abertura de um novo escritório da empresa em Hong Kong, seu primeiro fora da China continental. O novo local está situado na Times Square, uma área comercial em Causeway Bay.
“A presença da RedNote melhorará as interações entre criadores de conteúdo locais, marcas e organizações, e promoverá intercâmbios culturais Oriente-Oeste e desenvolvimento de marketing de conteúdo entre Hong Kong, o continente e os mercados globais,” disse Alpha Lau, Diretor-Geral de Promoção de Investimentos da InvestHK, a repórteres durante uma coletiva de imprensa no último sábado.
A RedNote, com sede em Xangai, é uma das plataformas de mídia social mais amplamente utilizadas na China, com 300 milhões de usuários ativos mensais. Segundo os funcionários da empresa, a expansão faz parte dos planos para aumentar o alcance da RedNote no exterior, em preparação para uma possível proibição do TikTok nos Estados Unidos.
Empresas de IA chinesas escolhem tecnologia de código aberto
A RedNote se junta à lista de empresas chinesas que avançaram para tornar seus grandes modelos de linguagem mais de código aberto. Mais empresas estão tentando espelhar o sucesso de modelos de baixo custo e alto desempenho, como os lançados pela startup DeepSeek.
No início deste ano, a DeepSeek lançou seu modelo R1 de código aberto, que liderou os downloads em várias lojas de aplicativos por entregar resultados fortes a uma fração do custo associado aos LLMs ocidentais.
Gigantes da tecnologia, Alibaba, Tencent e ByteDance, fizeram investimentos significativos em infraestrutura de IA. A Alibaba, por exemplo, lançou vários novos LLMs como parte de sua série Qwen, incluindo os mais recentes modelos de Embedding Qwen3. Estes suportam mais de 100 idiomas capazes de recuperação de código e linguagem.
A Alibaba disse que os modelos Qwen3 melhoraram a eficiência e o desempenho em sistemas de embedding e reranking. Falando no início deste ano, Wang Jian, fundador da Alibaba Cloud, afirmou que o progresso dos grandes modelos de linguagem está superando as expectativas e continuará a fazê-lo.
Wang mencionou startups como DeepSeek como exemplos de como jovens inovadores resolvem problemas com abordagens criativas.
De acordo com Wang, o ZEROSEARCH da Alibaba demonstra como a inovação pode reduzir significativamente os custos de desenvolvimento. O ZEROSEARCH, apresentado em maio, foi projetado para simular o comportamento de mecanismos de busca durante o treinamento sem fazer chamadas de API reais. A empresa afirma que isso pode reduzir os custos de treinamento em até 90%.
Academia Cryptopolitan: Quer fazer seu dinheiro crescer em 2025? Aprenda como fazer isso com DeFi em nossa próxima webclass. Reserve seu lugar