作者:Messari

編譯:Elponcho,鏈新聞

在生成式 AI 蓬勃發展的今天,我們仍難以解決一個根本問題:AI 有時會一本正經地胡說八道。這種現象在業界被稱爲“幻覺”(hallucination)。而 Mira,一個專爲 AI 輸出驗證而設計的去中心化協議,正試圖透過多模型共識機制與加密審計,爲 AI 增加“事實可信度”。以下,我們來看 Mira 是如何運作的、爲什麼它比傳統做法更有效,以及它目前在真實應用中的成果。

本報導內容根據 Messari 發佈的研究報告整理撰寫。

去中心化的事實驗證協議:Mira 的基本運作原理

Mira 並不是一個 AI 模型,而是一個嵌入式的驗證層。當一個 AI 模型產出迴應後(例如 chatbot 回答、摘要、自動化報告等),Mira 會將輸出拆解成一連串獨立的事實主張。這些主張會被送往其分散式驗證網路,每個節點(即驗證者)各自運行不同架構的 AI 模型,來評估這些主張是否爲真。

每個節點都會針對主張給出“正確”、“錯誤”或“不確定”的判斷,最後系統依據多數共識來做出總體決策。若大多數模型認可某個主張爲真,該主張就會被覈准;否則就會被標註、駁回,或提示警告。

這個過程完全透明、可審計。每一筆驗證都會產生一個加密證書,標明驗證過程中參與的模型、投票結果、時間戳記等,供第三方查驗。

爲什麼 AI 需要像 Mira 這樣的驗證系統?

生成式 AI 模型(如 GPT、Claude)並不是決定論式的工具,它們是依照機率預測下一個字元,並不具備內建的“事實感知”。這樣的設計讓它們可以寫詩、講笑話,但也意味着:它們可能一本正經地製造虛假資訊。

Mira 提出的驗證機制,正是要解決 AI 目前的四大核心問題:

  1. 幻覺氾濫:AI 編造政策、虛構歷史事件、亂引文獻的案例層出不窮。

  2. 黑箱運作:使用者不知道 AI 的答案從何而來,無法追溯。

  3. 非一致性輸出:同樣的問題,AI 可能給出不同答案。

  4. 中心化控制:目前大多數 AI 模型由少數幾家公司壟斷,用戶無法查證其邏輯或爭取第二意見。

傳統驗證方法的侷限

目前的替代方案,例如人類審查(Human-in-the-loop)、規則式過濾器、模型自我校驗等,都各有不足:

  • 人工審查難以規模化,速度慢且成本高。

  • 規則式過濾侷限於預定場景,對創造性錯誤無能爲力。

  • 模型自審效果差,AI 經常對錯誤答案過度自信。

  • 集中式 Ensemble雖然能交叉檢查,但缺乏模型多樣性,容易形成“集體盲點”。

Mira 的創新機制:結合共識機制與 AI 分工

Mira 的關鍵創新是將區塊鏈共識概念引入 AI 驗證。每一筆 AI 輸出,在經過 Mira 後,會變成多個獨立的事實陳述,由各式 AI 模型進行“投票”。只有在超過一定比例模型達成一致時,該內容纔會被視爲可信。

Mira 核心設計優勢包括:

  • 模型多樣性:來自不同架構與數據背景的模型,降低集體偏誤。

  • 錯誤容忍:即使部分節點出錯,也不會影響整體結果。

  • 全鏈透明:驗證紀錄上鍊,可供審計。

  • 可擴展性強:每日可驗證超過 30 億 tokens(約等於數百萬段文字)。

  • 無需人爲干預:自動化進行,不需人工驗證。

去中心化基礎建設:節點與計算資源由誰提供?

Mira 的驗證節點由全球去中心化計算貢獻者提供。這些貢獻者被稱爲 Node Delegators (節點委任者),他們不直接操作節點,而是將 GPU 運算資源出租給經過認證的節點營運者。這種“計算即服務”模式大幅擴展了 Mira 的可處理規模。

主要合作節點供應商包括:

  • Io.Net:提供 DePIN 架構 GPU 計算網。

  • Aethir:專注於 AI 與遊戲的分散式雲端 GPU。

  • Hyperbolic、Exabits、Spheron:多家區塊鏈計算平臺,也爲 Mira 節點提供基礎設施。

節點參與者需通過一項 KYC 視訊驗證程序,以確保網路唯一性與安全性。

Mira 驗證讓 AI 正確率提升至 96%

根據 Messari 報告中的 Mira 團隊數據,透過其驗證層過濾後,大型語言模型的事實正確率從 70% 提升至 96%。在教育、金融、客服等實際場景中,幻覺內容的出現頻率下降了 90%。重要的是,這些改進完全不需重新訓練 AI 模型,僅透過“過濾”就能達成。

目前 Mira 已整合至多個應用平臺中,包括:

  • 教育工具

  • 金融分析產品

  • AI chatbot

  • 第三方 Verified Generate API 服務

整個 Mira 生態系涵蓋超過 450 萬名用戶,每日活躍使用者達 50 萬人以上。雖多數人未直接接觸 Mira,但他們的 AI 迴應,早已悄悄經過其背後的驗證機制。

Mira 打造 AI 的可信任基礎層

在 AI 產業日益追求規模與效率的同時,Mira 提供了一個新方向:不靠單一 AI 決定答案,而是靠一羣獨立模型來“投票定真”。這樣的架構不僅讓輸出結果更可信,也建立起一種“可驗證的信任機制”,並且具備高度可擴展性。

隨著用戶規模擴大與第三方審覈漸趨普及,Mira 有潛力成爲 AI 生態中不可或缺的基礎設施。對於任何希望其 AI 能在真實世界應用中站得住腳的開發者與企業,Mira 所代表的“分散式驗證層”或許正是關鍵拼圖之一。