目前的AI基本都是集中式AI,其实存在4个问题:
一是数据滥用与归属不清:大厂通过抓取公开数据(比如博客、论文)训练模型,数据提供者未获许可或补偿,引发隐私和伦理争议。
二是模型黑箱问题:大型语言模型(比如 GPT-4)的训练过程和数据来源不透明,导致输出不可靠(“幻觉”)和信任危机。
三是贡献者激励缺失:数据、模型和代理的创造者无法从 AI 生态的商业化中获益,阻碍了协作创新。
四是通用模型局限性:通用大模型在特定领域(比如金融、法律)精度不足,专用模型(SLM)需求日益增长。
简单说,就是数据被偷用、算法黑盒、普通人没有机会参与、通用模型在细分领域不够用。
因此,针对这些问题,AI结合Web3后可以拥有诸多新特性,也是很多项目正在尝试的方向,其中值得关注的一个项目是OpenLedger。 @OpenledgerHQ
OpenLedger 是一个 AI 区块链,可以将数据、模型和代理货币化。这条链是基于 OP Stack 构建的 Layer 2 网络,使用 EigenDA 进行数据可用性存储。
OpenLedger 提出了一个关键概念:“数据智能层”(Data Intelligence Layer)。
“数据智能层”是 OpenLedger 架构中的关键组成部分,定位为一个去中心化的中间层,连接数据提供者、模型开发者、AI 代理和 Web3 生态。
“数据智能层”可以类比为去中心化 AI 的“操作系统”,类似 AWS 在云计算中的角色。
它不仅管理数据和模型,还通过区块链的透明性和代币经济,赋予生态参与者(个人、企业、社区)协作和货币化的能力。
这种“层”的设计将 AI 从集中式孤岛转变为开放的协作网络,释放了数据和智能的流动性。
这里核心有4项关键技术:
1、归属证明(Proof of Attribution)
与传统的 Proof of Work 或 Proof of Stake 不同,Proof of Attribution 是一种专为 AI 生态设计的共识机制,强调“价值归属”而非算力竞争。
这不仅降低了能耗,还与 AI 的数据驱动特性高度契合。
2、Datanets
Datanets 的成功依赖于社区参与度和数据质量。OpenLedger 正引入动态定价和质量评估机制,以激励高价值数据贡献并过滤低质数据。
3、模型工厂(Model Factory)
模型工厂的 GUI 设计是对现有复杂微调框架(如命令行工具)的颠覆,类似于“AI 的 Canva”。
这可以吸引中小企业和独立开发者,扩大生态的多样性。
4、OpenLoRA
OpenLoRA 的技术实现涉及模型压缩或分布式计算优化,与现有区块链基础设施(如 EigenDA)无缝集成。
总的来说,OpenLedger 通过 Proof of Attribution、Datanets、模型工厂和 OpenLoRA 构建了一个独特的去中心化 AI 生态,其在专用模型、透明性和 Web3 整合方面的优势,使其在金融、法律等高精度领域具有竞争潜力。
OpenLedger 刚刚在香港结束了第一次中国行,接下来的安排分别是杭州、深圳、成都、上海,有兴趣的小伙伴可以现场与项目方交流,来线下还有机会拿到空投白名单!