De acordo com a PANews, a implantação de modelos de linguagem grande (LLMs) de IA em setores como finanças, saúde e direito enfrenta desafios significativos devido ao problema de "alucinação", onde as saídas de IA podem não corresponder à precisão necessária nesses campos. A Mira Network introduziu uma rede de teste pública que oferece uma solução para esse problema.
Os LLMs de IA geralmente apresentam alucinações devido a dois motivos principais: dados de treinamento incompletos, o que leva a conclusões criativas em áreas especializadas ou de nicho, e dependência de amostragem probabilística, que identifica padrões estatísticos em vez de compreensão verdadeira, causando inconsistências no tratamento de consultas factuais de alta precisão.
Um estudo publicado na plataforma ArXiv da Cornell University propõe um método para aumentar a confiabilidade dos resultados do LLM por meio da verificação multimodelo. Essa abordagem envolve gerar resultados com um modelo primário e, em seguida, usar vários modelos de verificação para análise de voto majoritário, reduzindo alucinações e aumentando a precisão para 95,6%.
A Mira Network desenvolveu uma plataforma de verificação distribuída para gerenciar e verificar interações entre modelos primários e de verificação. Esta rede de middleware fornece uma camada de validação confiável entre usuários e modelos de IA fundamentais, permitindo serviços como proteção de privacidade, garantia de precisão, design escalável e interfaces de API padronizadas. Ao minimizar as alucinações do AI LLM, a Mira Network expande a aplicabilidade da IA em vários cenários especializados.
Exemplos de aplicação da Mira Network incluem:
1) A Gigabrain, uma plataforma de negociação, integra o Mira para verificar a precisão da análise e previsão de mercado, filtrando sugestões não confiáveis e melhorando a confiabilidade dos sinais de negociação de IA em cenários DeFi.
2) A Learnrite usa o Mira para validar questões de exames padronizadas geradas por IA, permitindo que instituições educacionais utilizem conteúdo gerado por IA sem comprometer a precisão do teste, mantendo padrões educacionais rigorosos.
3) O projeto Kernel do blockchain incorpora o mecanismo de consenso LLM da Mira ao ecossistema BNB, criando uma rede de verificação descentralizada (DVN) que garante a precisão e a segurança dos cálculos de IA no blockchain.
A Mira Network oferece um serviço de rede de consenso de middleware, que não é o único método para aprimorar os recursos de aplicativos de IA. Outras opções incluem aprimoramentos de treinamento orientados a dados, interações de modelos multimodais e aprimoramentos de computação de privacidade por meio de tecnologias criptográficas como ZKP, FHE e TEE. No entanto, a solução da Mira é notável por sua rápida implementação e eficácia imediata.