撰文:Messari

 

摘要

 

  • 分散驗證讓 Mira 通過獨立模型網絡過濾 AI 輸出來提高事實可靠性,無需重新訓練或集中監督即可減少幻覺。

 

  • 共識機制要求多個獨立運行的模型在任何索賠獲得批准之前達成一致,從而取代單個模型的信心。

 

  • Mira 每天在集成應用程序中驗證 30 億個代幣,爲 450 多萬用戶提供支持。

 

  • 當輸出在生產環境中通過 Mira 的共識流程進行過濾時,事實準確率從 70% 上升到 96% 。

 

  • Mira 通過將驗證直接嵌入到聊天機器人、金融科技工具和教育平臺等應用程序的 AI 中,充當基礎設施而非最終用戶產品。


Mira 介紹

 

Mira 是一種旨在驗證 AI 系統輸出的協議。其核心功能類似於一個去中心化的審計 / 信任層。每當 AI 模型生成輸出(無論是答案還是摘要)時,Mira 都會在輸出到達最終用戶之前評估該輸出中的 「事實」 聲明是否可信。


該系統的工作原理是將每個 AI 輸出分解成更小的主張。這些主張由 Mira 網絡中的多個驗證節點獨立評估。每個節點運行各自的 AI 模型,通常採用不同的架構、數據集或視角。模型對每個主張進行投票,決定其真僞或與上下文相關。最終結果由共識機制決定:如果絕大多數模型同意該主張的有效性,Mira 將批准該主張。如果存在分歧,則該主張將被標記或拒絕。

 

沒有中央權威機構或隱藏模型做出最終決定。相反,真相由集體決定,從分佈式的多樣化模型中涌現。整個過程透明且可審計。每個經過驗證的輸出都附帶一個加密證書:一份可追溯的記錄,顯示哪些聲明被評估、哪些模型參與了以及它們如何投票。應用程序、平臺甚至監管機構都可以使用此證書來確認輸出已通過 Mira 的驗證層。

 

Mira 的靈感源自人工智能的集成技術和區塊鏈的共識機制。它並非通過聚合預測來提高準確性,而是通過聚合評估來確定可信度。它會進行篩選,拒絕那些未通過分佈式真實性測試的輸出。

 

爲什麼 AI 需要像 Mira 的驗證系統?

 

AI 模型並非確定性的,這意味着它們並不總是針對相同的提示返回相同的輸出,也無法保證其生成結果的真實性。這並非缺陷;它直接源於大型語言模型的訓練方式:通過概率而非確定性來預測下一個標記。

 

這種概率性賦予了人工智能系統靈活性。它賦予它們創造力、情境感知能力和類人能力。然而,這也意味着它們可以自然而然地創造事物。

 

我們已經看到了後果。加拿大航空的聊天機器人編造了一項根本不存在的喪親票價政策,並將其轉發給一位用戶。這位用戶輕信了聊天機器人,根據虛假信息預訂了機票,並承擔了經濟損失。經過法院裁定,航空公司應對聊天機器人的幻覺負責。簡而言之,人工智能自信地提出了索賠,而公司爲此付出了代價。

 

這只是一個例子。幻覺現象普遍存在。它們出現在引用不準確的研究摘要、呈現虛假歷史事實的教育應用程序,以及人工智能撰寫的包含虛假或誤導性陳述的新聞簡報中。這是因爲這些輸出通常流暢且權威,用戶往往會信以爲真。

 

除了幻覺之外,還有更多系統性問題:

 

  • 偏見:人工智能模型可以反映並放大其訓練數據中存在的偏見。這種偏見並不總是顯而易見的。它可能通過措辭、語氣或優先級等微妙地表現出來。例如,招聘助理可能會系統性地偏向某一特定人羣。金融工具可能會生成使用歪曲或污名化語言的風險評估。

 

  • 非確定性:向同一模型詢問同一個問題兩次,可能會得到兩個不同的答案。稍微改變一下提示,結果就可能出現意想不到的變化。這種不一致性使得 AI 輸出難以審計、重現或變得長期依賴。

 

  • 黑箱本質:當人工智能系統給出答案時,它通常不會提供任何解釋或可追溯的推理。它沒有清晰的線索來展示其結論。因此,當模型出錯時,很難診斷原因或進行修復。

 

  • 中心化控制:目前大多數人工智能系統都是由少數幾家大公司控制的封閉模型。如果模型存在缺陷、偏見或被審查,用戶的選擇有限。缺乏第二意見、透明的申訴流程或相互矛盾的解釋。這導致了一種難以挑戰或驗證的中心化控制結構。


現有提高 AI 輸出可靠性的方法及其存在的侷限性

 

目前有多種方法可以提高 AI 輸出的可靠性。每種方法都提供了部分價值,但都存在侷限性,無法達到關鍵應用所需的信任級別。

 

  • 人機協同 (HITL):這種方法涉及人工審覈和批准 AI 輸出。它在低容量用例中可以有效工作。然而,對於每天產生數百萬條響應的系統(例如搜索引擎、支持機器人或輔導應用程序),它很快就會成爲瓶頸。人工審覈速度慢、成本高,並且容易引入偏見和不一致。例如,xAI 的 Grok 使用 AI 導師手動評估和優化答案。這是一種臨時解決方案,Mira 認爲它是一種低槓桿率的解決方案:它無法擴展,也無法解決無法驗證的 AI 邏輯中存在的根本問題。

 

  • 規則過濾器:這些系統採用固定的檢查方法,例如標記禁用術語或將輸出與結構化知識圖譜進行比較。雖然它們適用於較窄的上下文,但僅適用於符合開發人員預期的情況。它們無法處理新穎或開放式的查詢,並且難以處理細微的錯誤或模棱兩可的聲明。

 

  • 自我驗證:一些模型包含評估其自信心或使用輔助模型對其答案進行評估的機制。然而,衆所周知,人工智能系統在識別自身錯誤方面表現不佳。對錯誤答案過度自信是一個長期存在的問題,而內部反饋往往無法糾正它。

 

  • 集成模型:在某些系統中,多個模型會相互交叉檢查。雖然這可以提高質量標準,但傳統的集成模型通常是集中式且同質化的。如果所有模型共享相似的訓練數據或來自同一供應商,它們可能會共享相同的盲點。架構和視角的多樣性將受到限制。

 

Mira 致力於解決感知問題。它的目標是創建一個能夠捕捉並消除幻覺的環境,通過多樣化的模型最大限度地減少偏見,使輸出結果可重複驗證,並且沒有任何單一實體能夠控制真實性驗證過程。研究 Mira 系統的工作原理,可以以新穎的方式解決上述每個問題。

 

Mira 如何提高 AI 可靠性

 

目前提升 AI 可靠性的方法(中心化且依賴於單一事實來源)不同。Mira 引入了一種不同的模型。它實現了去中心化驗證,在協議層面建立共識,並運用經濟激勵來強化可靠性行爲。Mira 並非獨立產品或自上而下的監督工具,而是作爲一個模塊化基礎設施層,可以集成到任何人工智能系統中。

 

該協議的設計基於幾個核心原則:

 

  • 事實的準確性不應該取決於一個模型的輸出。

  • 驗證必須是自主的,不能依賴於持續的人爲監督。

  • 信任應該建立在獨立的協議,而不是集中的控制。


Mira 將分佈式計算原理應用於 AI 驗證。當提交輸出(例如政策建議、財務摘要或聊天機器人回覆)時,它首先會被分解爲更小的事實聲明。這些聲明被構建爲離散的問題或陳述,並被路由到驗證者節點網絡。

 

每個節點運行不同的 AI 模型或配置,並獨立評估其分配的聲明。它會返回以下三個判斷之一:真、假或不確定。然後,Mira 會反饋結果。如果滿足可配置的絕對多數閾值,則聲明得到驗證。如果不滿足,則會對其進行標記、丟棄或返回警告。

 

Mira 的分佈式設計具有多種結構優勢:

 

  • 冗餘和多樣性:通過具有不同架構、數據集和觀點的模型對聲明進行交叉檢查。

  • 容錯性:一個模型中的故障或錯誤不太可能在許多模型中重現。

  • 透明度:每個驗證結果都記錄在鏈上,提供可審計的線索,包括哪些模型參與了以及它們如何投票。

  • 自主性:Mira 持續並行運行,無需人工干預。

  • 規模性:該系統每天可以處理數十億個代幣的大量工作負載。

 

Mira 的核心洞察基於統計學:雖然單個模型可能會產生幻覺或反映偏見,但多個獨立系統以相同方式犯相同錯誤的概率要低得多。該協議利用這種多樣性來過濾不可靠的內容。Mira 的原理與集成學習類似,但它將這一理念擴展爲一個分佈式、可驗證且加密經濟安全的系統,可以嵌入到現實世界的 AI 流程中。


節點委託人和計算資源

 

Mira Network 的去中心化驗證基礎設施由全球貢獻者社區提供支持,他們提供運行驗證節點所需的計算資源。這些貢獻者被稱爲節點委託人,在擴展協議處理和驗證 AI 輸出的生產規模方面發揮着關鍵作用。

 

什麼是節點委託人?

 

節點委託人是指向已驗證的節點運營商出租或提供 GPU 計算資源的個人或實體,而非自行運營驗證者節點。這種委託模式允許參與者爲 Mira 的基礎設施做出貢獻,而無需管理複雜的 AI 模型或節點軟件。通過提供 GPU 資源訪問權限,委託人使節點運營商能夠並行執行更多驗證,從而增強系統的容量和穩健性。

 

節點委託人因其參與而獲得經濟激勵。作爲貢獻計算力的回報,他們將獲得與其支持的節點執行的驗證工作量和與質量掛鉤的獎勵。這創建了一個去中心化的激勵結構,其中網絡可擴展性與社區參與直接相關,而非中心化的基礎設施投資。

 

節點運營商由誰提供?

 

計算資源來自 Mira 的創始節點運營商合作伙伴,他們是去中心化基礎設施生態系統的關鍵參與者:​

 

  • Io.Net:用於 GPU 計算的去中心化物理基礎設施網絡 (DePIN),提供可擴展且經濟高效的 GPU 資源。

  • Aethir:一家企業級、專注於人工智能和遊戲的 GPU 即服務提供商,提供分散式雲計算基礎設施。

  • Hyperbolic:一個開放式 AI 雲平臺,爲 AI 開發提供經濟實惠且協調一致的 GPU 資源。

  • Exabits:AI 去中心化雲計算的先驅,解決 GPU 短缺問題並優化資源配置。

  • Spheron:一個簡化 Web 應用程序部署的去中心化平臺,提供透明且可驗證的解決方案。

 

每個合作伙伴都在 Mira 網絡上運行驗證者節點,利用委託的計算能力大規模驗證 AI 輸出。他們的貢獻使 Mira 能夠維持高驗證吞吐量,每天處理數十億個代幣,同時保持速度、容錯能力和去中心化。

 

注意:每位參與者僅可購買一個節點委託人許可證。用戶必須通過 「輔助視頻驗證」 的 KYC 流程來證明其真實參與。

 

Mira 在 AI 領域大規模使用情況和數據支持

 

根據團隊提供的數據,Mira 網絡每天驗證超過 30 億個 Token。在語言模型中,Token 指的是文本的小單位,通常是一個詞片段、一個短詞或一個標點符號。例如,「Mira 驗證輸出」 這句話會被分解成多個 Token。這一報告量表明,Mira 正在處理各種集成中的大量內容,包括聊天助手、教育平臺、金融科技產品以及使用 API 的內部工具。在內容層面,這種吞吐量相當於每天評估數百萬個段落。

 

據報道,Mira 的生態系統(包括合作伙伴項目)支持超過 450 萬獨立用戶,每日活躍用戶約 50 萬。這些用戶包括 Klok 的直接用戶,以及在後臺集成 Mira 驗證層的第三方應用程序的最終用戶。雖然大多數用戶可能不會直接與 Mira 交互,但該系統充當着一個靜默驗證層的作用,幫助確保 AI 生成的內容在到達最終用戶之前達到一定的準確度閾值。

 

根據 Mira 團隊的一篇研究論文,大型語言模型此前在教育和金融等領域的事實準確率約爲 70%,而如今通過 Mira 的共識流程篩選後,驗證準確率已高達 96%。值得注意的是,這些提升無需重新訓練模型本身即可實現。相反,這些改進源於 Mira 的篩選邏輯。該系統通過要求多個獨立運行的模型達成一致來篩選不可靠的內容。這種效果對於幻覺,即 AI 生成的、未經證實的虛假信息尤其重要,據報道,這類信息在集成應用中減少了 90%。由於幻覺通常具有特異性且不一致,因此不太可能通過 Mira 的共識機制。

 

除了提高事實可靠性之外,Mira 協議還旨在支持開放參與。驗證並不侷限於中心化的審覈團隊。爲了協調激勵機制,Mira 採用了一套經濟獎懲制度。始終遵循共識的驗證者將獲得基於績效的報酬,而提交被操縱或不準確判斷的驗證者將面臨懲罰。這種結構鼓勵誠實行爲,並促進不同模型配置之間的競爭。通過消除對中心化監管的依賴,並將激勵協同機制嵌入協議層,Mira 實現了高流量環境下的可擴展去中心化驗證,同時確保輸出標準不受影響。


結論


Mira 爲 AI 領域最緊迫的挑戰之一提供了結構性解決方案:無法依靠且大規模地驗證輸出結果。Mira 不再依賴單一模型的置信度或事後的人爲監督,而是引入了一個與人工智能生成並行運行的去中心化驗證層。該系統通過將輸出分解爲事實聲明,將其分發到獨立的驗證節點,並應用共識機制,篩選掉不受支持的內容。它無需重新訓練模型或進行集中控制,即可提高可靠性。


數據顯示,採用率、事實準確性都有顯著提升,AI 幻覺現象大幅減少。目前 Mira 已被集成到聊天界面、教育工具和金融平臺等多個領域中,正逐步成爲精準度關鍵應用的基礎設施層。隨着協議的成熟和第三方審計的普及,Mira 的透明度、可重複性和開放參與度將爲在高容量或受監管環境中運行的 AI 系統提供可擴展的信任框架。