撰文:Messari

 

摘要

 

  • 分散验证让 Mira 通过独立模型网络过滤 AI 输出来提高事实可靠性,无需重新训练或集中监督即可减少幻觉。

 

  • 共识机制要求多个独立运行的模型在任何索赔获得批准之前达成一致,从而取代单个模型的信心。

 

  • Mira 每天在集成应用程序中验证 30 亿个代币,为 450 多万用户提供支持。

 

  • 当输出在生产环境中通过 Mira 的共识流程进行过滤时,事实准确率从 70% 上升到 96% 。

 

  • Mira 通过将验证直接嵌入到聊天机器人、金融科技工具和教育平台等应用程序的 AI 中,充当基础设施而非最终用户产品。


Mira 介绍

 

Mira 是一种旨在验证 AI 系统输出的协议。其核心功能类似于一个去中心化的审计 / 信任层。每当 AI 模型生成输出(无论是答案还是摘要)时,Mira 都会在输出到达最终用户之前评估该输出中的 「事实」 声明是否可信。


该系统的工作原理是将每个 AI 输出分解成更小的主张。这些主张由 Mira 网络中的多个验证节点独立评估。每个节点运行各自的 AI 模型,通常采用不同的架构、数据集或视角。模型对每个主张进行投票,决定其真伪或与上下文相关。最终结果由共识机制决定:如果绝大多数模型同意该主张的有效性,Mira 将批准该主张。如果存在分歧,则该主张将被标记或拒绝。

 

没有中央权威机构或隐藏模型做出最终决定。相反,真相由集体决定,从分布式的多样化模型中涌现。整个过程透明且可审计。每个经过验证的输出都附带一个加密证书:一份可追溯的记录,显示哪些声明被评估、哪些模型参与了以及它们如何投票。应用程序、平台甚至监管机构都可以使用此证书来确认输出已通过 Mira 的验证层。

 

Mira 的灵感源自人工智能的集成技术和区块链的共识机制。它并非通过聚合预测来提高准确性,而是通过聚合评估来确定可信度。它会进行筛选,拒绝那些未通过分布式真实性测试的输出。

 

为什么 AI 需要像 Mira 的验证系统?

 

AI 模型并非确定性的,这意味着它们并不总是针对相同的提示返回相同的输出,也无法保证其生成结果的真实性。这并非缺陷;它直接源于大型语言模型的训练方式:通过概率而非确定性来预测下一个标记。

 

这种概率性赋予了人工智能系统灵活性。它赋予它们创造力、情境感知能力和类人能力。然而,这也意味着它们可以自然而然地创造事物。

 

我们已经看到了后果。加拿大航空的聊天机器人编造了一项根本不存在的丧亲票价政策,并将其转发给一位用户。这位用户轻信了聊天机器人,根据虚假信息预订了机票,并承担了经济损失。经过法院裁定,航空公司应对聊天机器人的幻觉负责。简而言之,人工智能自信地提出了索赔,而公司为此付出了代价。

 

这只是一个例子。幻觉现象普遍存在。它们出现在引用不准确的研究摘要、呈现虚假历史事实的教育应用程序,以及人工智能撰写的包含虚假或误导性陈述的新闻简报中。这是因为这些输出通常流畅且权威,用户往往会信以为真。

 

除了幻觉之外,还有更多系统性问题:

 

  • 偏见:人工智能模型可以反映并放大其训练数据中存在的偏见。这种偏见并不总是显而易见的。它可能通过措辞、语气或优先级等微妙地表现出来。例如,招聘助理可能会系统性地偏向某一特定人群。金融工具可能会生成使用歪曲或污名化语言的风险评估。

 

  • 非确定性:向同一模型询问同一个问题两次,可能会得到两个不同的答案。稍微改变一下提示,结果就可能出现意想不到的变化。这种不一致性使得 AI 输出难以审计、重现或变得长期依赖。

 

  • 黑箱本质:当人工智能系统给出答案时,它通常不会提供任何解释或可追溯的推理。它没有清晰的线索来展示其结论。因此,当模型出错时,很难诊断原因或进行修复。

 

  • 中心化控制:目前大多数人工智能系统都是由少数几家大公司控制的封闭模型。如果模型存在缺陷、偏见或被审查,用户的选择有限。缺乏第二意见、透明的申诉流程或相互矛盾的解释。这导致了一种难以挑战或验证的中心化控制结构。


现有提高 AI 输出可靠性的方法及其存在的局限性

 

目前有多种方法可以提高 AI 输出的可靠性。每种方法都提供了部分价值,但都存在局限性,无法达到关键应用所需的信任级别。

 

  • 人机协同 (HITL):这种方法涉及人工审核和批准 AI 输出。它在低容量用例中可以有效工作。然而,对于每天产生数百万条响应的系统(例如搜索引擎、支持机器人或辅导应用程序),它很快就会成为瓶颈。人工审核速度慢、成本高,并且容易引入偏见和不一致。例如,xAI 的 Grok 使用 AI 导师手动评估和优化答案。这是一种临时解决方案,Mira 认为它是一种低杠杆率的解决方案:它无法扩展,也无法解决无法验证的 AI 逻辑中存在的根本问题。

 

  • 规则过滤器:这些系统采用固定的检查方法,例如标记禁用术语或将输出与结构化知识图谱进行比较。虽然它们适用于较窄的上下文,但仅适用于符合开发人员预期的情况。它们无法处理新颖或开放式的查询,并且难以处理细微的错误或模棱两可的声明。

 

  • 自我验证:一些模型包含评估其自信心或使用辅助模型对其答案进行评估的机制。然而,众所周知,人工智能系统在识别自身错误方面表现不佳。对错误答案过度自信是一个长期存在的问题,而内部反馈往往无法纠正它。

 

  • 集成模型:在某些系统中,多个模型会相互交叉检查。虽然这可以提高质量标准,但传统的集成模型通常是集中式且同质化的。如果所有模型共享相似的训练数据或来自同一供应商,它们可能会共享相同的盲点。架构和视角的多样性将受到限制。

 

Mira 致力于解决感知问题。它的目标是创建一个能够捕捉并消除幻觉的环境,通过多样化的模型最大限度地减少偏见,使输出结果可重复验证,并且没有任何单一实体能够控制真实性验证过程。研究 Mira 系统的工作原理,可以以新颖的方式解决上述每个问题。

 

Mira 如何提高 AI 可靠性

 

目前提升 AI 可靠性的方法(中心化且依赖于单一事实来源)不同。Mira 引入了一种不同的模型。它实现了去中心化验证,在协议层面建立共识,并运用经济激励来强化可靠性行为。Mira 并非独立产品或自上而下的监督工具,而是作为一个模块化基础设施层,可以集成到任何人工智能系统中。

 

该协议的设计基于几个核心原则:

 

  • 事实的准确性不应该取决于一个模型的输出。

  • 验证必须是自主的,不能依赖于持续的人为监督。

  • 信任应该建立在独立的协议,而不是集中的控制。


Mira 将分布式计算原理应用于 AI 验证。当提交输出(例如政策建议、财务摘要或聊天机器人回复)时,它首先会被分解为更小的事实声明。这些声明被构建为离散的问题或陈述,并被路由到验证者节点网络。

 

每个节点运行不同的 AI 模型或配置,并独立评估其分配的声明。它会返回以下三个判断之一:真、假或不确定。然后,Mira 会反馈结果。如果满足可配置的绝对多数阈值,则声明得到验证。如果不满足,则会对其进行标记、丢弃或返回警告。

 

Mira 的分布式设计具有多种结构优势:

 

  • 冗余和多样性:通过具有不同架构、数据集和观点的模型对声明进行交叉检查。

  • 容错性:一个模型中的故障或错误不太可能在许多模型中重现。

  • 透明度:每个验证结果都记录在链上,提供可审计的线索,包括哪些模型参与了以及它们如何投票。

  • 自主性:Mira 持续并行运行,无需人工干预。

  • 规模性:该系统每天可以处理数十亿个代币的大量工作负载。

 

Mira 的核心洞察基于统计学:虽然单个模型可能会产生幻觉或反映偏见,但多个独立系统以相同方式犯相同错误的概率要低得多。该协议利用这种多样性来过滤不可靠的内容。Mira 的原理与集成学习类似,但它将这一理念扩展为一个分布式、可验证且加密经济安全的系统,可以嵌入到现实世界的 AI 流程中。


节点委托人和计算资源

 

Mira Network 的去中心化验证基础设施由全球贡献者社区提供支持,他们提供运行验证节点所需的计算资源。这些贡献者被称为节点委托人,在扩展协议处理和验证 AI 输出的生产规模方面发挥着关键作用。

 

什么是节点委托人?

 

节点委托人是指向已验证的节点运营商出租或提供 GPU 计算资源的个人或实体,而非自行运营验证者节点。这种委托模式允许参与者为 Mira 的基础设施做出贡献,而无需管理复杂的 AI 模型或节点软件。通过提供 GPU 资源访问权限,委托人使节点运营商能够并行执行更多验证,从而增强系统的容量和稳健性。

 

节点委托人因其参与而获得经济激励。作为贡献计算力的回报,他们将获得与其支持的节点执行的验证工作量和与质量挂钩的奖励。这创建了一个去中心化的激励结构,其中网络可扩展性与社区参与直接相关,而非中心化的基础设施投资。

 

节点运营商由谁提供?

 

计算资源来自 Mira 的创始节点运营商合作伙伴,他们是去中心化基础设施生态系统的关键参与者:​

 

  • Io.Net:用于 GPU 计算的去中心化物理基础设施网络 (DePIN),提供可扩展且经济高效的 GPU 资源。

  • Aethir:一家企业级、专注于人工智能和游戏的 GPU 即服务提供商,提供分散式云计算基础设施。

  • Hyperbolic:一个开放式 AI 云平台,为 AI 开发提供经济实惠且协调一致的 GPU 资源。

  • Exabits:AI 去中心化云计算的先驱,解决 GPU 短缺问题并优化资源配置。

  • Spheron:一个简化 Web 应用程序部署的去中心化平台,提供透明且可验证的解决方案。

 

每个合作伙伴都在 Mira 网络上运行验证者节点,利用委托的计算能力大规模验证 AI 输出。他们的贡献使 Mira 能够维持高验证吞吐量,每天处理数十亿个代币,同时保持速度、容错能力和去中心化。

 

注意:每位参与者仅可购买一个节点委托人许可证。用户必须通过 「辅助视频验证」 的 KYC 流程来证明其真实参与。

 

Mira 在 AI 领域大规模使用情况和数据支持

 

根据团队提供的数据,Mira 网络每天验证超过 30 亿个 Token。在语言模型中,Token 指的是文本的小单位,通常是一个词片段、一个短词或一个标点符号。例如,「Mira 验证输出」 这句话会被分解成多个 Token。这一报告量表明,Mira 正在处理各种集成中的大量内容,包括聊天助手、教育平台、金融科技产品以及使用 API 的内部工具。在内容层面,这种吞吐量相当于每天评估数百万个段落。

 

据报道,Mira 的生态系统(包括合作伙伴项目)支持超过 450 万独立用户,每日活跃用户约 50 万。这些用户包括 Klok 的直接用户,以及在后台集成 Mira 验证层的第三方应用程序的最终用户。虽然大多数用户可能不会直接与 Mira 交互,但该系统充当着一个静默验证层的作用,帮助确保 AI 生成的内容在到达最终用户之前达到一定的准确度阈值。

 

根据 Mira 团队的一篇研究论文,大型语言模型此前在教育和金融等领域的事实准确率约为 70%,而如今通过 Mira 的共识流程筛选后,验证准确率已高达 96%。值得注意的是,这些提升无需重新训练模型本身即可实现。相反,这些改进源于 Mira 的筛选逻辑。该系统通过要求多个独立运行的模型达成一致来筛选不可靠的内容。这种效果对于幻觉,即 AI 生成的、未经证实的虚假信息尤其重要,据报道,这类信息在集成应用中减少了 90%。由于幻觉通常具有特异性且不一致,因此不太可能通过 Mira 的共识机制。

 

除了提高事实可靠性之外,Mira 协议还旨在支持开放参与。验证并不局限于中心化的审核团队。为了协调激励机制,Mira 采用了一套经济奖惩制度。始终遵循共识的验证者将获得基于绩效的报酬,而提交被操纵或不准确判断的验证者将面临惩罚。这种结构鼓励诚实行为,并促进不同模型配置之间的竞争。通过消除对中心化监管的依赖,并将激励协同机制嵌入协议层,Mira 实现了高流量环境下的可扩展去中心化验证,同时确保输出标准不受影响。


结论


Mira 为 AI 领域最紧迫的挑战之一提供了结构性解决方案:无法依靠且大规模地验证输出结果。Mira 不再依赖单一模型的置信度或事后的人为监督,而是引入了一个与人工智能生成并行运行的去中心化验证层。该系统通过将输出分解为事实声明,将其分发到独立的验证节点,并应用共识机制,筛选掉不受支持的内容。它无需重新训练模型或进行集中控制,即可提高可靠性。


数据显示,采用率、事实准确性都有显著提升,AI 幻觉现象大幅减少。目前 Mira 已被集成到聊天界面、教育工具和金融平台等多个领域中,正逐步成为精准度关键应用的基础设施层。随着协议的成熟和第三方审计的普及,Mira 的透明度、可重复性和开放参与度将为在高容量或受监管环境中运行的 AI 系统提供可扩展的信任框架。