A Fluence está construindo o que as nuvens centralizadas não podem: uma camada de computação aberta, de baixo custo e de nível empresarial que é soberana, transparente e aberta a todos. 2025 começou da maneira que 2024 terminou, com gigantes da nuvem investindo agressivamente para dominar a infraestrutura de IA.

A Microsoft está gastando mais de $80 bilhões em novos centros de dados, o Google lançou seu Hipercomputador de IA, a Oracle está investindo $25 bilhões em seus clusters de IA Stargate, e a AWS está priorizando serviços nativos de IA. Jogadores especializados estão escalando rapidamente também. A CoreWeave levantou $1,5 bilhão em seu IPO de março e atualmente vale mais de $70 bilhões.

À medida que a IA se torna uma infraestrutura crítica, o acesso ao poder computacional será uma das batalhas definidoras da nossa era. Enquanto os hiperescaladores consolidam e centralizam o poder computacional construindo centros de dados exclusivos e integrando verticalmente o silício, redes como a Fluence oferecem uma visão radicalmente diferente—uma plataforma descentralizada, aberta e neutra para computação de IA, tokenizando a computação para atender à demanda exponencial da IA e tendo o FLT como um ativo de computação tokenizado RWA.

A Fluence já está colaborando com as principais redes de infraestrutura descentralizadas em IA (Spheron, Aethir, IO.net) e armazenamento (Filecoin, Arweave, Akave, IPFS) em várias iniciativas, reforçando sua posição como uma camada de computação-dados neutra. Para trazer essa visão à vida, o roteiro para 2025–2026 foca na convergência de três áreas de ação principais:

1. Lançando Uma Camada de Computação Potenciada por GPU Global

A Fluence em breve suportará nós GPU em todo o mundo, permitindo que provedores de computação contribuam com hardware pronto para IA para a rede. Esta nova malha de GPU atualizará a plataforma Fluence de uma capacidade baseada em CPU para uma camada de computação de grau IA adicional, projetada para inferência, ajuste fino e atendimento de modelos. A Fluence integrará suporte a contêineres para execução segura e portátil de trabalhos GPU. A containerização permite o atendimento confiável de cargas de trabalho de ML e estabelece infraestrutura crítica para futuras inferências, ajustes finos e aplicações agentivas em toda a rede descentralizada.

A Fluence explorará a inferência que preserva a privacidade através da computação confidencial para GPUs, mantendo dados comerciais ou pessoais sensíveis privados enquanto ajuda a reduzir custos de inferência em IA. Usando ambientes de execução confiáveis (TEE) e memória criptografada, esta iniciativa de P&D permite o processamento de cargas de trabalho sensíveis enquanto mantém a descentralização e apoia o desenvolvimento de agentes soberanos.

Principais Marcos:

  • Integração de nós GPU – Q3 2025

  • Suporte ao tempo de execução de contêiner GPU em operação – Q4 2025

  • Início da trilha de P&D em computação confidencial GPU – Q4 2025

  • Execução de trabalho confidencial piloto – Q2 2026

2. Modelos de IA Hospedados e Inferência Unificada

Fluence fornecerá templates de implantação com um clique para modelos de código aberto populares, incluindo LLMs, estruturas de orquestração como LangChain, pilhas agentivas e servidores MCP. A pilha de IA da plataforma Fluence será expandida com uma camada de inferência integrada para modelos e agentes hospedados. Isso simplifica a implantação de modelos de IA enquanto aproveita as contribuições da comunidade e o suporte de desenvolvimento externo.

  • Modelos + templates de orquestração em operação – Q4 2025

  • Infraestrutura de endpoints de inferência e roteamento em operação – Q2 2026

3. Habilitando SLA Verificáveis e Dirigidos pela Comunidade

A Fluence apresentará uma nova abordagem para confiança e resiliência da rede através dos Guardiões—atores de varejo e institucionais que verificam a disponibilidade de computação. Em vez de depender de painéis fechados, os Guardiões monitoram a infraestrutura através de telemetria descentralizada e ganham recompensas FLT por impor acordos de nível de serviço (SLA).

Os Guardiões transformam uma rede de infraestrutura de nível empresarial em algo em que qualquer um pode participar—sem precisar possuir hardware. O programa Guardian é complementado pelo Programa Pointless, um sistema de reputação gamificado que recompensa contribuições comunitárias e leva à elegibilidade de Guardian.

Principais Marcos:

  • Primeira leva de Guardiões – Q3 2025

  • Implantação completa dos Guardiões e SLA programático – Q4 2025

4. Integrando Computação de IA com uma Pilha de Dados Componível

IA não é apenas computação—é computação + dados. A Fluence está construindo integrações profundas com redes de armazenamento descentralizadas como Filecoin, Arweave, Akave e IPFS para fornecer aos desenvolvedores acesso a conjuntos de dados verificáveis junto com ambientes de execução. Essas integrações permitirão que os usuários definam trabalhos que acessem dados persistentes e distribuídos e executem em nós suportados por GPU—transformando a Fluence em um backend de IA de pilha completa que é orquestrado via FLT.

Para apoiar isso, a rede oferecerá templates componíveis e módulos SDK pré-construídos para conectar trabalhos de computação com buckets de armazenamento ou conjuntos de dados em cadeia. Desenvolvedores que criam agentes de IA, ferramentas de inferência LLM ou aplicações científicas poderão tratar a Fluence como um pipeline de IA modular—com dados abertos, computação e validação interligados por lógica de protocolo.

Principais Marcos:

  • Backups de armazenamento descentralizado – Q1 2026

  • Acesso integrado a conjuntos de dados para cargas de trabalho de IA – Q3 2026

De Computação Sem Nuvem a Inteligência Compartilhada

Com um roteiro focado na integração de GPU, execução verificável e acesso a dados sem costura, a Fluence está lançando as bases para a próxima era da IA—uma que não será controlada por um punhado de hiperescaladores, mas impulsionada por uma comunidade global de provedores de computação descentralizados e cooperantes.

A infraestrutura para IA deve refletir os valores que queremos que a IA sirva: abertura, colaboração, verificabilidade e responsabilidade. A Fluence está transformando esse princípio em um protocolo.

Junte-se à missão:

  • Candidate-se como um provedor de GPU

  • Inscreva-se para o Beta da Fluence para VMs sem nuvem

Comece a escalar a tabela de classificação Pointless e ganhe seu caminho para o status de Guardian

O post Fluence AI Roadmap: Entregando Uma Camada de Computação Neutra para o Futuro da Inteligência Com FLT apareceu primeiro no Blockonomi.