目前的AI基本都是集中式AI,其实存在4个问题:

一是数据滥用与归属不清:大厂通过抓取公开数据(比如博客、论文)训练模型,数据提供者未获许可或补偿,引发隐私和伦理争议。

二是模型黑箱问题:大型语言模型(比如 GPT-4)的训练过程和数据来源不透明,导致输出不可靠(“幻觉”)和信任危机。

三是贡献者激励缺失:数据、模型和代理的创造者无法从 AI 生态的商业化中获益,阻碍了协作创新。

四是通用模型局限性:通用大模型在特定领域(比如金融、法律)精度不足,专用模型(SLM)需求日益增长。

简单说,就是数据被偷用、算法黑盒、普通人没有机会参与、通用模型在细分领域不够用。

因此,针对这些问题,AI结合Web3后可以拥有诸多新特性,也是很多项目正在尝试的方向,其中值得关注的一个项目是OpenLedger。 @OpenledgerHQ

OpenLedger 是一个 AI 区块链,可以将数据、模型和代理货币化。这条链是基于 OP Stack 构建的 Layer 2 网络,使用 EigenDA 进行数据可用性存储。

OpenLedger 提出了一个关键概念:“数据智能层”(Data Intelligence Layer)。

“数据智能层”是 OpenLedger 架构中的关键组成部分,定位为一个去中心化的中间层,连接数据提供者、模型开发者、AI 代理和 Web3 生态。

“数据智能层”可以类比为去中心化 AI 的“操作系统”,类似 AWS 在云计算中的角色。

它不仅管理数据和模型,还通过区块链的透明性和代币经济,赋予生态参与者(个人、企业、社区)协作和货币化的能力。

这种“层”的设计将 AI 从集中式孤岛转变为开放的协作网络,释放了数据和智能的流动性。

这里核心有4项关键技术:

1、归属证明(Proof of Attribution)

与传统的 Proof of Work 或 Proof of Stake 不同,Proof of Attribution 是一种专为 AI 生态设计的共识机制,强调“价值归属”而非算力竞争。

这不仅降低了能耗,还与 AI 的数据驱动特性高度契合。

2、Datanets

Datanets 的成功依赖于社区参与度和数据质量。OpenLedger 正引入动态定价和质量评估机制,以激励高价值数据贡献并过滤低质数据。

3、模型工厂(Model Factory)

模型工厂的 GUI 设计是对现有复杂微调框架(如命令行工具)的颠覆,类似于“AI 的 Canva”。

这可以吸引中小企业和独立开发者,扩大生态的多样性。

4、OpenLoRA

OpenLoRA 的技术实现涉及模型压缩或分布式计算优化,与现有区块链基础设施(如 EigenDA)无缝集成。

总的来说,OpenLedger 通过 Proof of Attribution、Datanets、模型工厂和 OpenLoRA 构建了一个独特的去中心化 AI 生态,其在专用模型、透明性和 Web3 整合方面的优势,使其在金融、法律等高精度领域具有竞争潜力。

OpenLedger 刚刚在香港结束了第一次中国行,接下来的安排分别是杭州、深圳、成都、上海,有兴趣的小伙伴可以现场与项目方交流,来线下还有机会拿到空投白名单!