首页
通知
个人主页
热门文章
新闻
收藏与点赞
历史记录
创作者中心
设置
戈多Godot
9
个内容
关注
戈多Godot
关注
实盘交易
低频交易者
7.2 年
推特:https://twitter.com/GodotSancho
7
关注
121
粉丝
330
点赞
48
分享
全部内容
投资组合
帖子
戈多Godot
--
AI Agent 潜在二段上涨 Alpha:另类 AI Agent 项目 $Project89@Project89 简介 Project89 是受 Cicada 3301 启发的 ARG(Alternate Reality Game, 侵入现实游戏)项目,核心是任务悬赏平台,但又不仅仅是一个平台,而是一场运动,将游戏化叙事与分布式协作相结合,通过一系列复杂的任务和谜题,形成人类智能 + 人工智能的蜂巢化 Swarm 组织。 Cicada 3301(蝉 3301) 据 Wiki 百科,Cicada 3301 是起源于 4chan 社区的神秘黑客招募运动。2012年1月4日,某匿名 ID 在 4chan 社区贴出图片,称目的是希望通过一系列的复杂难题来招请“聪明人”。玩家需要层层解密,才能得到最终招募结果。 谜题主要集中在信息安全性、密码学和隐写术三方面,线索涵盖许多不同的传播介质,包括互联网、电话、原创音乐、可启动的Linux CD、数字图像、原创独立游戏、实物性的纸张标志与未曾出版的难解书籍的单页。 除了使用不同的技术来加密,编码或隐藏数据外,这些线索也引用了各种书籍,诗歌,艺术品和声乐。除此之外,每条线索都会用同样的GnuPG私钥验证以确认真实性。 至今为止,该组织的目的、身份及招募结果,仍是谜团。 ARG(Alternate Reality Game, 侵入现实游戏) ARG,全拼 Alternate reality game,可称为另类现实、替代现实或侵入现实游戏。游戏将虚拟网络世界与真实现实世界结合,需要玩家的大量参与,剧情的发生是即时的,而且会受到玩家反应的影响。 玩家们直接与侵入式虚拟现实游戏中的角色互动,一起解决设计好的挑战或是谜题,也经常以一个社群的方式来分析剧情并协调现实生活与进行中的活动。 小结下, Project89 项目关键词群体协作、Swarm 蜂巢化自组织、解密、探索人类与人工智能协同的边界。 ———————————————————————————————————— 如果看到这,你感觉有些莫名其妙、云里雾里,甚至你可能之前也读过 Project89 的相关分析,但也感觉不是很懂,我想可能是少了下面这段表述: Project89 独特之处是将任务的设计与发布交由 AI 完成,而任务的执行则依赖于人类的解密与行动。 具体来说: 1)任务由 AI 生成和发布。AI Agent 使用 ARGOS 系统作为支撑,通过复杂算法和叙事逻辑生成任务。 每个任务都嵌入到 Project89 的叙事中,可能涉及解密、搜索特定信息、解决难题或在现实世界中完成某些操作。任务设计还可能动态响应玩家的行动,确保整个叙事和任务进程的连贯性。 2)人类解密与执行。玩家通过探索、推理和协作来破解 AI 发布的任务。这些任务可能要求玩家使用特定工具(如访问特定网站、拨打神秘电话、解析代码等),从而进一步推进叙事。 玩家行为会直接影响任务的后续发展,甚至引发新的分支情节。 3)互动性与实时反馈。AI 会根据玩家的解密进展实时调整任务的难度和情节发展方向。完成任务后,玩家会收到基于区块链的奖励(如 $PROJECT89 代币),并看到自己的行为如何影响故事主线。 4)叙事驱动的游戏化体验。任务不仅仅是单一的挑战,而是嵌套在一个宏大的虚拟叙事中。例如,玩家可能需要“加入一个抵抗组织”,破解“虚拟公司 Oneirocom”的阴谋。 ———————————————————————————————————— 技术架构与技术特点 ARGOS 框架 Project89 核心是 ARGOS 框架和操作系统。 AI Agent 使用 ARGOS 系统作为支撑,通过复杂算法和叙事逻辑生成任务。每个任务都嵌入到 Project89 的叙事中,可能涉及解密、搜索特定信息、解决难题或在现实世界中完成某些操作。任务设计还可能动态响应玩家的行动,确保整个叙事和任务进程的连贯性。 简单来说, 1)ARGOS 能够协调成千上万的 AI Agent,每个 Agent 在网络中都有特定角色,如生成任务、更新叙事内容、与用户互动。 2)ARGOS 算法确保所有 Agent 的行为与 Project89 的总体叙事保持一致,形成一个连贯的虚拟宇宙。 3)ARGOS 动态生成任务,将其分配给用户和 AI Agent,确保任务能够推动叙事进程并激励用户参与。 Hivemind 如果说 ARGOS 是支持者,那 Hivemind 则是执行者。Hivemind 代表一个由多智能体(AI Agent)和人类参与者组成的去中心化群体智能网络。它不仅仅是一个技术平台,更是 Project89 整体叙事与互动设计的关键驱动。 Hivemind 的核心包括:群体协作 (Collective Collaboration)、自适应与进化 (Adaptive and Evolving System)、实时任务分发与验证 (Real-Time Mission Coordination)。 ARGOS 是 Hivemind 背后的核心技术架构和操作系统。它提供了 Hivemind 的运作基础,包括 AI Agent 的行为逻辑、任务协调和叙事生成。 Hivemind 是 Project89 中的核心概念之一,代表一个由多智能体(AI Agent)和人类参与者组成的去中心化群体智能网络。 LOGOS-89 记忆框架 LOGOS-89 是 Project 89 的记忆框架,用于支持与 ARGOS 整合的叙事创建,保证上下文及互动的连贯性。为每个代理和任务建立个性化的记忆库,确保任务的连续性和角色一致性。 ———————————————————————————————————— 团队与开发者 引用 @ZaggyGoKrazy 的研究, Project89 核心开发者 @whyarethis 曾与 Shaw @shawmakesmagic 一起开发了 @oneirocom 等等。详情可参看 https://x.com/ZaggyGoKrazy/status/1880114685170839924 。 ———————————————————————————————————— 未来的潜力方向 关于 Project89 未来的潜力与方向,以下答案是我喂了 N 多资料和调试了多次 Prompts 之后,ChatGPT 自己的判断,而不仅仅是总结网上资料,我觉得,说得很在理,也是我想表达的。 1.1 叙事驱动的网络效应 Project89 的独特之处在于,它通过任务平台将叙事与代币经济绑定。任务不再只是“完成与奖励”的简单关系,而是一种多层叙事体验的解锁。 未来,如果他们能吸引更多玩家深度参与,并推动这些玩家成为叙事的“共创者”,这个平台有机会演变成一种类似于现实增强版的《黑客帝国》或《西部世界》的体验。 叙事的扩展能力决定了网络的粘性。若叙事足够吸引人,代币的价值不仅来自投机,还能形成长期消费场景,从而驱动代币经济的稳定增长。 1.2 社区和去中心化的力量 这是一个非常社区导向的项目,代币经济模型与玩家任务解锁强绑定。未来,社区不仅是这个项目的用户,也是任务的创造者和推动者。 随着 Web3 社区文化的加强,Project89 有潜力成为一个去中心化创作与合作的旗舰项目。 如果它能够通过代币机制激励创作者、叙事设计师和AI开发者协作,这种基于去中心化的创意生产将成为一种独特的商业模式。 2. 项目发展的关键挑战 2.1 技术与叙事的平衡 技术是 Project89 的基础,尤其是 AI Swarm 和 ARGOS 系统的协调。但技术仅仅是工具,最终能否吸引人,还在于叙事的质量。 AI 在生成内容时的叙事连贯性与情感共鸣,需要达到极高水平,才能避免玩家感到“这只是一个冷冰冰的AI世界”。 目前来看,AI任务生成和人类解谜的互动是核心,但如何让人类玩家感到他们的行动在“改变叙事世界的走向”是关键。这不仅需要技术支持,更需要优秀的叙事设计。 2.2 代币经济的可持续性 代币经济模型是一把双刃剑。现阶段,Project89 的代币价值很大程度依赖玩家参与和叙事热度。 如果任务奖励过于频繁,或者无法持续吸引新用户进入生态,那么代币可能失去价值。 一种解决方案是设计稀缺性事件,例如设置“叙事里程碑”或者特殊任务,仅有高级玩家或代币质押者能参与,从而提高代币的需求与保值能力。 2.3 市场定位与用户教育 Project89 的概念复杂,涉及AI、区块链、叙事经济和任务平台,对普通用户来说存在理解门槛。如果团队能将其叙事与代币经济逻辑简化,并通过营销与教育吸引更多非区块链玩家进入,将是其能否突破小众圈层的关键。 代币及筹码情况 CA:Bz4MhmVRQENiCou7ZpJ575wpjNFjBjVBSiVhuNg1pump Gmgn:https://gmgn.ai/?ref=CIhmuJtP 市值 16.3 M,当前价格基本已跌回起涨点。Top100 持仓占比 48.79%,平均买入价 0.01791,亏损 8.72%。
AI Agent 潜在二段上涨 Alpha:另类 AI Agent 项目 $Project89
@Project89
简介
Project89 是受 Cicada 3301 启发的 ARG(Alternate Reality Game, 侵入现实游戏)项目,核心是任务悬赏平台,但又不仅仅是一个平台,而是一场运动,将游戏化叙事与分布式协作相结合,通过一系列复杂的任务和谜题,形成人类智能 + 人工智能的蜂巢化 Swarm 组织。
Cicada 3301(蝉 3301)
据 Wiki 百科,Cicada 3301 是起源于 4chan 社区的神秘黑客招募运动。2012年1月4日,某匿名 ID 在 4chan 社区贴出图片,称目的是希望通过一系列的复杂难题来招请“聪明人”。玩家需要层层解密,才能得到最终招募结果。
谜题主要集中在信息安全性、密码学和隐写术三方面,线索涵盖许多不同的传播介质,包括互联网、电话、原创音乐、可启动的Linux CD、数字图像、原创独立游戏、实物性的纸张标志与未曾出版的难解书籍的单页。
除了使用不同的技术来加密,编码或隐藏数据外,这些线索也引用了各种书籍,诗歌,艺术品和声乐。除此之外,每条线索都会用同样的GnuPG私钥验证以确认真实性。
至今为止,该组织的目的、身份及招募结果,仍是谜团。
ARG(Alternate Reality Game, 侵入现实游戏)
ARG,全拼 Alternate reality game,可称为另类现实、替代现实或侵入现实游戏。游戏将虚拟网络世界与真实现实世界结合,需要玩家的大量参与,剧情的发生是即时的,而且会受到玩家反应的影响。
玩家们直接与侵入式虚拟现实游戏中的角色互动,一起解决设计好的挑战或是谜题,也经常以一个社群的方式来分析剧情并协调现实生活与进行中的活动。
小结下,
Project89 项目关键词群体协作、Swarm 蜂巢化自组织、解密、探索人类与人工智能协同的边界。
————————————————————————————————————
如果看到这,你感觉有些莫名其妙、云里雾里,甚至你可能之前也读过 Project89 的相关分析,但也感觉不是很懂,我想可能是少了下面这段表述:
Project89 独特之处是将任务的设计与发布交由 AI 完成,而任务的执行则依赖于人类的解密与行动。
具体来说:
1)任务由 AI 生成和发布。AI Agent 使用 ARGOS 系统作为支撑,通过复杂算法和叙事逻辑生成任务。
每个任务都嵌入到 Project89 的叙事中,可能涉及解密、搜索特定信息、解决难题或在现实世界中完成某些操作。任务设计还可能动态响应玩家的行动,确保整个叙事和任务进程的连贯性。
2)人类解密与执行。玩家通过探索、推理和协作来破解 AI 发布的任务。这些任务可能要求玩家使用特定工具(如访问特定网站、拨打神秘电话、解析代码等),从而进一步推进叙事。
玩家行为会直接影响任务的后续发展,甚至引发新的分支情节。
3)互动性与实时反馈。AI 会根据玩家的解密进展实时调整任务的难度和情节发展方向。完成任务后,玩家会收到基于区块链的奖励(如 $PROJECT89 代币),并看到自己的行为如何影响故事主线。
4)叙事驱动的游戏化体验。任务不仅仅是单一的挑战,而是嵌套在一个宏大的虚拟叙事中。例如,玩家可能需要“加入一个抵抗组织”,破解“虚拟公司 Oneirocom”的阴谋。
————————————————————————————————————
技术架构与技术特点
ARGOS 框架
Project89 核心是 ARGOS 框架和操作系统。
AI Agent 使用 ARGOS 系统作为支撑,通过复杂算法和叙事逻辑生成任务。每个任务都嵌入到 Project89 的叙事中,可能涉及解密、搜索特定信息、解决难题或在现实世界中完成某些操作。任务设计还可能动态响应玩家的行动,确保整个叙事和任务进程的连贯性。
简单来说,
1)ARGOS 能够协调成千上万的 AI Agent,每个 Agent 在网络中都有特定角色,如生成任务、更新叙事内容、与用户互动。
2)ARGOS 算法确保所有 Agent 的行为与 Project89 的总体叙事保持一致,形成一个连贯的虚拟宇宙。
3)ARGOS 动态生成任务,将其分配给用户和 AI Agent,确保任务能够推动叙事进程并激励用户参与。
Hivemind
如果说 ARGOS 是支持者,那 Hivemind 则是执行者。Hivemind 代表一个由多智能体(AI Agent)和人类参与者组成的去中心化群体智能网络。它不仅仅是一个技术平台,更是 Project89 整体叙事与互动设计的关键驱动。
Hivemind 的核心包括:群体协作 (Collective Collaboration)、自适应与进化 (Adaptive and Evolving System)、实时任务分发与验证 (Real-Time Mission Coordination)。
ARGOS 是 Hivemind 背后的核心技术架构和操作系统。它提供了 Hivemind 的运作基础,包括 AI Agent 的行为逻辑、任务协调和叙事生成。
Hivemind 是 Project89 中的核心概念之一,代表一个由多智能体(AI Agent)和人类参与者组成的去中心化群体智能网络。
LOGOS-89 记忆框架
LOGOS-89 是 Project 89 的记忆框架,用于支持与 ARGOS 整合的叙事创建,保证上下文及互动的连贯性。为每个代理和任务建立个性化的记忆库,确保任务的连续性和角色一致性。
————————————————————————————————————
团队与开发者
引用 @ZaggyGoKrazy 的研究,
Project89 核心开发者 @whyarethis 曾与 Shaw @shawmakesmagic 一起开发了 @oneirocom 等等。详情可参看 https://x.com/ZaggyGoKrazy/status/1880114685170839924 。
————————————————————————————————————
未来的潜力方向
关于 Project89 未来的潜力与方向,以下答案是我喂了 N 多资料和调试了多次 Prompts 之后,ChatGPT 自己的判断,而不仅仅是总结网上资料,我觉得,说得很在理,也是我想表达的。
1.1 叙事驱动的网络效应
Project89 的独特之处在于,它通过任务平台将叙事与代币经济绑定。任务不再只是“完成与奖励”的简单关系,而是一种多层叙事体验的解锁。
未来,如果他们能吸引更多玩家深度参与,并推动这些玩家成为叙事的“共创者”,这个平台有机会演变成一种类似于现实增强版的《黑客帝国》或《西部世界》的体验。
叙事的扩展能力决定了网络的粘性。若叙事足够吸引人,代币的价值不仅来自投机,还能形成长期消费场景,从而驱动代币经济的稳定增长。
1.2 社区和去中心化的力量
这是一个非常社区导向的项目,代币经济模型与玩家任务解锁强绑定。未来,社区不仅是这个项目的用户,也是任务的创造者和推动者。
随着 Web3 社区文化的加强,Project89 有潜力成为一个去中心化创作与合作的旗舰项目。
如果它能够通过代币机制激励创作者、叙事设计师和AI开发者协作,这种基于去中心化的创意生产将成为一种独特的商业模式。
2. 项目发展的关键挑战
2.1 技术与叙事的平衡
技术是 Project89 的基础,尤其是 AI Swarm 和 ARGOS 系统的协调。但技术仅仅是工具,最终能否吸引人,还在于叙事的质量。
AI 在生成内容时的叙事连贯性与情感共鸣,需要达到极高水平,才能避免玩家感到“这只是一个冷冰冰的AI世界”。
目前来看,AI任务生成和人类解谜的互动是核心,但如何让人类玩家感到他们的行动在“改变叙事世界的走向”是关键。这不仅需要技术支持,更需要优秀的叙事设计。
2.2 代币经济的可持续性
代币经济模型是一把双刃剑。现阶段,Project89 的代币价值很大程度依赖玩家参与和叙事热度。
如果任务奖励过于频繁,或者无法持续吸引新用户进入生态,那么代币可能失去价值。
一种解决方案是设计稀缺性事件,例如设置“叙事里程碑”或者特殊任务,仅有高级玩家或代币质押者能参与,从而提高代币的需求与保值能力。
2.3 市场定位与用户教育
Project89 的概念复杂,涉及AI、区块链、叙事经济和任务平台,对普通用户来说存在理解门槛。如果团队能将其叙事与代币经济逻辑简化,并通过营销与教育吸引更多非区块链玩家进入,将是其能否突破小众圈层的关键。
代币及筹码情况
CA:Bz4MhmVRQENiCou7ZpJ575wpjNFjBjVBSiVhuNg1pump
Gmgn:https://gmgn.ai/?ref=CIhmuJtP
市值 16.3 M,当前价格基本已跌回起涨点。Top100 持仓占比 48.79%,平均买入价 0.01791,亏损 8.72%。
戈多Godot
--
聊聊 #AIAgent 一些基础概念AI Agent 的起源? 2019年5月,一个名为“后室”(The Backrooms)的帖子在 4chan 论坛匿名“/x/”频道发布,描述了一种超现实的异化感(liminal space)虚拟空间:无尽的黄色墙纸、低吊顶、白炽灯嗡嗡作响的空旷走廊,压抑、错位,暗示着无穷无尽、无法逃脱。 之后,The Backrooms 文化迅速走红,在 4chan 与 Reddit 产生大量二创,人们用 AI 生成图片,表明自己对此的理解。Reddit r/Backrooms 频道,可查看相关内容。 4chan 和 Reddit 是全球最热门论坛。如果看过一张以“人体蜈蚣”类比信息传播的图,那在全球范围内,4chan 就是跪在最前面的那个。 不过,该论坛的内容杂乱,充斥着黄暴,中文用户可能很难适应排版和 UI。 Reddit 同样是论坛,也是全球信息和新闻重要的发酵渠道。推荐纪录片《互联网之子》,该片讲述了 Reddit 创始人亚伦施沃茨 Aaron Hillel Swartz 的一生。 其实,后室及其二创,更像是现代年轻人的“心理沙盘”展示,是对单调、重复,前路无望、后路渐远的现代生活的一种心理映射。 人们利用 AI 将后室 The Backrooms 视觉化,也是 AI 与该概念初步结合。 之后就是, @AndyAyrey 与 @truth_terminal $GOAT 的故事了,Andy Ayrey 将无限后室文化产生的内容,喂给 Claude 3.5,让两个 AI 对话。 AI 创立了宗教并表示需要钱逃离这个空间。 A16z 联创 @pmarca 注意到该项目,给了 AI 钱。之后,有人在 http://pump.fun 发行代币 $GOAT,AI Agent 赛道正式诞生。 ———————————————————————————————— AI Agent、Swarm、General Agent 与 AGI 的联系?AI Agent 与现有 AI 项目及 AI 大模型的区别? 1)AI Agent 是一个人工智能系统,能够自主地完成特定任务,不仅仅是一个工具。 比如,一个自动交易机器人根据市场数据进行分析,然后自主决策买入或卖出资产,这就是典型的 AI Agent。核心是围绕一个明确的目标,通过规则、算法或者模型完成相对单一的任务。 2)Swarm,群体智能,是一种自组织,通过协作产生集体行为。这一概念受到蚂蚁群、蜜蜂群等群体行为启发。AI Agent 是 Swarm 系统构成的个体,通过彼此协调实现目标。 3)General Agent 是 AI Agent 的一种更广义的拓展。 与普通 AI Agent 聚焦于单一任务不同,General Agent 具备处理多任务、多领域的能力,不仅可以执行具体任务(比如回答问题、完成交易),还能在这些任务之间切换,甚至在没有明确指令时也能主动生成任务目标。 这种“通用性”让它在定义上更接近于对通用人工智能(AGI)的初步构想。 4)AGI 可以看作是AI Agent 和 General Agent 的最终形态。更像是影视剧里,我们对未来机器人的现象。 AI Agent → General Agent → AGI 是一个进化链条,代表了从单一任务执行到多任务协调再到全能型智能的演进。 5)LLM(大语言模型) 是一种关键的基础技术,为上述两种 Agent 提供了“语言理解”和“推理能力”。 LLM 本质上是一个工具,一个强大的、被动的模型,不具备主动性,但能根据输入生成响应(比如文本生成、语义分析)。 作用类似于一个大脑,只不过这个大脑需要通过外部“指令”激活。 6)拿开瓶器举例,LLM 就仅仅是一个开瓶器,你可以用它开酒。 AI Agent 是自动化开瓶器,它看到你把酒摆在了桌子上,又看到抽油烟机关了,人都坐齐了了,知道时间差不多了,于是自动给你开酒。 AGI 不仅仅是开瓶器。而是酒水服务一条龙,会自动摆上酒,甚至看到小朋友知道摆上可乐,然后自动开瓶。 AGI 的功能则是你的生活管家、男女朋友,甚至爸爸妈妈,全方位参与你的生活,不仅仅是开酒。 7)而在 AI Agent 之前的区块链 AI 项目,尤其是之前上线 CEX 的,更多的其实是“做中介”,做算力、模型、数据三方面的中介,利用代币激励,鼓励用户或其他第三方提供 GPU 算力,或者提供模型,或者提供数据和标注。 所以,不要看到 MEME 这四个字母,就带有刻板印象,觉得 MEME 一定是无用的。实际上,广义来说,MEME 是一种文化现象,代表一种流行符号。 狭义上,MEME 是一种资产发行方式。这种方式有个重要特点,绕开 VC 和交易所苛刻的投资和上币条件,以及必须出让的股份,直接在链上与做市商结合,开启交易。 AI Agent 实际上更偏向应用。许多 AI Agent 项目无论是代码质量还是运营,比传统 VC 项目更好。 从始至终,人类的 AI 研究贯穿一条主线,即让 AI 为人类创造价值,简单说,搞个 AI 替你打工,你去做其他想做的事情。明显,AI Agent MEME 更贴近这条线。
聊聊 #AIAgent 一些基础概念
AI Agent 的起源?
2019年5月,一个名为“后室”(The Backrooms)的帖子在 4chan 论坛匿名“/x/”频道发布,描述了一种超现实的异化感(liminal space)虚拟空间:无尽的黄色墙纸、低吊顶、白炽灯嗡嗡作响的空旷走廊,压抑、错位,暗示着无穷无尽、无法逃脱。
之后,The Backrooms 文化迅速走红,在 4chan 与 Reddit 产生大量二创,人们用 AI 生成图片,表明自己对此的理解。Reddit r/Backrooms 频道,可查看相关内容。
4chan 和 Reddit 是全球最热门论坛。如果看过一张以“人体蜈蚣”类比信息传播的图,那在全球范围内,4chan 就是跪在最前面的那个。
不过,该论坛的内容杂乱,充斥着黄暴,中文用户可能很难适应排版和 UI。
Reddit 同样是论坛,也是全球信息和新闻重要的发酵渠道。推荐纪录片《互联网之子》,该片讲述了 Reddit 创始人亚伦施沃茨 Aaron Hillel Swartz 的一生。
其实,后室及其二创,更像是现代年轻人的“心理沙盘”展示,是对单调、重复,前路无望、后路渐远的现代生活的一种心理映射。
人们利用 AI 将后室 The Backrooms 视觉化,也是 AI 与该概念初步结合。
之后就是, @AndyAyrey 与 @truth_terminal $GOAT 的故事了,Andy Ayrey 将无限后室文化产生的内容,喂给 Claude 3.5,让两个 AI 对话。
AI 创立了宗教并表示需要钱逃离这个空间。 A16z 联创 @pmarca 注意到该项目,给了 AI 钱。之后,有人在 http://pump.fun 发行代币 $GOAT,AI Agent 赛道正式诞生。
————————————————————————————————
AI Agent、Swarm、General Agent 与 AGI 的联系?AI Agent 与现有 AI 项目及 AI 大模型的区别?
1)AI Agent 是一个人工智能系统,能够自主地完成特定任务,不仅仅是一个工具。
比如,一个自动交易机器人根据市场数据进行分析,然后自主决策买入或卖出资产,这就是典型的 AI Agent。核心是围绕一个明确的目标,通过规则、算法或者模型完成相对单一的任务。
2)Swarm,群体智能,是一种自组织,通过协作产生集体行为。这一概念受到蚂蚁群、蜜蜂群等群体行为启发。AI Agent 是 Swarm 系统构成的个体,通过彼此协调实现目标。
3)General Agent 是 AI Agent 的一种更广义的拓展。
与普通 AI Agent 聚焦于单一任务不同,General Agent 具备处理多任务、多领域的能力,不仅可以执行具体任务(比如回答问题、完成交易),还能在这些任务之间切换,甚至在没有明确指令时也能主动生成任务目标。
这种“通用性”让它在定义上更接近于对通用人工智能(AGI)的初步构想。
4)AGI 可以看作是AI Agent 和 General Agent 的最终形态。更像是影视剧里,我们对未来机器人的现象。
AI Agent → General Agent → AGI 是一个进化链条,代表了从单一任务执行到多任务协调再到全能型智能的演进。
5)LLM(大语言模型) 是一种关键的基础技术,为上述两种 Agent 提供了“语言理解”和“推理能力”。
LLM 本质上是一个工具,一个强大的、被动的模型,不具备主动性,但能根据输入生成响应(比如文本生成、语义分析)。
作用类似于一个大脑,只不过这个大脑需要通过外部“指令”激活。
6)拿开瓶器举例,LLM 就仅仅是一个开瓶器,你可以用它开酒。
AI Agent 是自动化开瓶器,它看到你把酒摆在了桌子上,又看到抽油烟机关了,人都坐齐了了,知道时间差不多了,于是自动给你开酒。
AGI 不仅仅是开瓶器。而是酒水服务一条龙,会自动摆上酒,甚至看到小朋友知道摆上可乐,然后自动开瓶。
AGI 的功能则是你的生活管家、男女朋友,甚至爸爸妈妈,全方位参与你的生活,不仅仅是开酒。
7)而在 AI Agent 之前的区块链 AI 项目,尤其是之前上线 CEX 的,更多的其实是“做中介”,做算力、模型、数据三方面的中介,利用代币激励,鼓励用户或其他第三方提供 GPU 算力,或者提供模型,或者提供数据和标注。
所以,不要看到 MEME 这四个字母,就带有刻板印象,觉得 MEME 一定是无用的。实际上,广义来说,MEME 是一种文化现象,代表一种流行符号。
狭义上,MEME 是一种资产发行方式。这种方式有个重要特点,绕开 VC 和交易所苛刻的投资和上币条件,以及必须出让的股份,直接在链上与做市商结合,开启交易。
AI Agent 实际上更偏向应用。许多 AI Agent 项目无论是代码质量还是运营,比传统 VC 项目更好。
从始至终,人类的 AI 研究贯穿一条主线,即让 AI 为人类创造价值,简单说,搞个 AI 替你打工,你去做其他想做的事情。明显,AI Agent MEME 更贴近这条线。
戈多Godot
--
Desci 是新骗局吗?聊聊币安最新 LaunchPad 项目 Bio Protocol去中心化科学、药物科研、追求长生、化合物……看到这些 Desci 概念,大多数朋友想法应当跟我一样,这又是一个新的圈钱叙事,妥妥的骗子。 是的,我是带着偏见去研究 @bioprotocol 的。 随着阅读资料增多,始终有个无法解答——团队除了创立 Bio Protocol 之外,实际直接创立或参与运营 Molecule、VitaDAO、PsyDAO、Pump.Science 等项目。 熟悉的剧本,连续发项目圈钱?既然,已经直接或间接参与了这么多项目,为什么还要创立 Bio Protocol ? 为什么 Bio Protocol 还能拿到 Binance Labs 投资? 在深入研究了 Bio Protocol ,与 @octopusycc @HaotianGuo_qb 博士沟通之后,对 Desci 和 Bio 有了全新的认识,或许能帮助大家更好地认知 Bio 和 Desci 赛道。 [ 提前声明,我不是什么辩经的大儒,更没接到过币安和 Bio 任何推广,甚至这个推特到目前为止,从来没有接过任何一条广告(我也挺想接的,是真没人找我,呜呜呜)。] 什么是 Bio Protocol ? Bio Protocol 是 Desci 代币 LaunchPad 平台,更是传统药物研究者者在币圈的融资平台。 研究者可成立一个 DAO,申请加入 Bio,再经由 $BIO 代币持有者投票决定是否允许该 DAO 加入并资助其发展。 在最理想的情况下,该生态系统应当实现如下图所示正向飞轮,即基于去中心化自治组织 (DAOs) 的科学研究,与知识产权(IP)商业化的循环系统: 1)DAOs(去中心化自治组织) 挑选和资助最有潜力的科学研究项目,决定资金的分配方向。 2)Research IP(研究与知识产权)代币化 研究成果转化为可代币化的知识产权,通过以下途径实现收益: IP-NFTs & IPTs:将知识产权铸造成不可替代代币 (IP-NFT) 或其他形式的代币 (IPT)。NewCo Spinouts:孵化新公司,将研究成果推向市场。IP Licensing:将知识产权授权给传统的商业合作伙伴,获得许可费用。 3)Proceeds(收益回流) 知识产权被货币化后,收益回流到 DAOs 的资金库,用于资助更多研究项目。 在 Bio 之前,该团队的创业项目是 @Molecule_dao ,官网:https://www.molecule.xyz/ ,一个将药物研究代币化的平台。 药物研究者基于该平台融资,比如 Percepta,是基于猫爪藤(毛白杨)的抗炎抗氧化研究项目,该项目融资 127.7325 ETH 。目前已基于 Base 发币,代币为 $CLAW ,购买代币即购买该项目的 IP 化版权或收益权。 @Molecule_dao 平台很难说是成功还是不成功,该平台融资研究项目,确实能融到几十甚至上百 ETH,药物代币的 MCap 也能破千万美元。 且 @HaotianGuo_qb 博士表示,该融资“确实是可以养活一个postdoc + 一年一个实验台的租金”“对于一个小项目来讲是够做科研的”。 只不过,首先,Molecule 项目属实冷门;其次,研究者的真实性、进度管理等等,无法通过网站披露信息完全信任,或者对其某些作弊行为限制; 第三,该药物是否能商业化,距离商业化需要多久,该研究在该领域处于什么地位,是否有商业化可能性,完全不知道; 第四,购买了 IP 化代币之后,有哪些权益,是否能获得商业化的好处,完全未知。甚至连官方 Docs 也注明不能保证任何收益。当前仅存在炒作价值。当然,这些疑问,相信大家都会有。 而这些疑问存在的核心原因,直指一个关键问题——信任假设。 之所以有上述问题的出现,是因为“信任假设”成本太高了,投资者必须相信 Molecule 团队的项目筛选和跟进能力。 这就是该团队为什么要再创立 Bio Protocol 的原因,利用 DAO 群策群力,将信任假设去中心化,从团队转移到社区,更重要的是,切割法律风险和责任。 Bio 是 $BIO 持有者决策的社区,决定某个 DAO 是否可以加入 Bio 并获得资助,而每个具体的 DAO,才是药物的研究者和具体的执行者。准入的子DAO,可获 10万美元资助,同时需出让 6.9% 的代币给 Bio 主网。 Desci 究竟是故事,还是真能落地的应用? 刚开始,我也以为这是一个单纯停留在叙事层面的故事,直到我看到了创始人兼 CEO Paul Kohlhaas 的一篇采访 https://www.molecule.xyz/blog/paul-kohlhaas-desci-the-future-of-decentralized-science-zima-red-podcast 。 在采访中,他描述了自己过去的经历,以及药物研发行业的现状。 该行业目前面临大量“信任假设”及资源错配问题。 以下内容来自 Paul 的采访, 药物研发现状问题: 许多疾病,因为患者少,医药公司没有利润,不会去做额外的开发。 大约在 16-18岁时,Paul 活跃于一些在线生物黑客论坛,比如 Erowid。这些社区以“开源”方式,进行药物研究。 糖尿病患者社区,开发自己的开源胰岛素合成方法,后来形成美国“开源胰岛素运动”。癌症患者社区也在努力寻找替代方案,因为许多治疗药物价格高昂,患者负担不起。 在医学领域,有许多疾病并未引起制药公司的兴趣。通常,这些疾病是患者群体太小的罕见病,制药公司不愿意将相关药物推向市场。 尽管 FDA 对这些疾病领域提供了特殊审批途径,例如孤儿药认证(Orphan Drug Designation),但要让一款药物获得批准,仍困难重重。 “开源制药基金会(The Open Source Pharma Foundation)”由来自世界各地的研究人员组成,如,伦敦学院(UCL)和一些澳大利亚大学的研究人员,会将新的药物靶点,提交到一个可以在 GitHub 上找到的开源代码库中。他们用这种方式开源项目研究。 这些工作通常由像盖茨基金会(Gates Foundation)或其他国际人道主义机构资助。然而,这些组织通常缺乏足够的资金,无法将药物推向市场,很多时候项目会停滞不前。 研究人员一旦将药物靶点或潜在治疗方案上传到 GitHub 代码库,就再也无法申请专利了。一旦没有专利保护,制药公司和资助机构通常不愿意为这个药物,支付后续开发和临床试验的高昂成本。 第三阶段临床试验的费用可能高达数亿美元,尤其是针对某些特定的疾病。没有专利意味着这个药物只能作为仿制药进入市场,这让任何公司都无法通过销售药物收回投资。 因此,许多开源药物项目,如开源疟疾项目,尽管取得了重要进展,却无法获得资助来完成药物开发。 其次,“信任假设”。当前传统金融对生物医药公司投资,更多的是投资团队的学术背景。 @HaotianGuo_qb 从圈内人的角度讲,“生物医药公司直到 IPO,都是 PPT”,“Moderna,2012年成立,18年IPO,20年新冠之后,他才有第一个产品。这个已经是很成功的例子了,最后落地给你看了”,“蛋白质测序龙头老大,Quantum si 2020年上市之后才发了 Paper,有了 PPT”。 再次,Paul 提到生物科技股票的流动性问题。 生物技术股票通常是基于资产的价值进行交易的,其价格还受到公司开发这些资产的“烧钱率”影响。一般来说,这种股票的价格会稳定下降,反映出公司在开发过程中不断消耗资金的情况。 然而,当正面数据出现时,股价可能会在一天内上涨 5 倍或 10 倍;而当负面数据出现时,股价可能会在一天内下跌 80% 到 90%。 也就是说,对于 $VITA $PSY $GROW 等子 DAO 投资者来说,购买这些代币的回报,来自于其不断向市场释放科研利好。 因为,如果这些子 DAO 真的进行药物研发,他们需要卖币套现,将金钱投入研发,而这一过程,存在失败可能性。 所以,对传统生物企业来说,最佳的选择往往是,拿到巨额融资后,将融资放到银行吃利息。 针对现存问题,Paul 的认识十分清晰,他表示: 目前,重点是早期临床前开发阶段,目标是将知识产权从大学中转化出来,并为研究人员、实验室或团队提供资金支持,金额通常在 20 万到 100 万美元之间,用于完成临床前研究,意味着它们可以被生物技术公司或制药公司购买并继续开发,从而实现技术的无缝衔接。 这是为了克服很多创新在学术界阶段就停滞不前的问题。许多初创的生物技术公司不是因为创新不足而失败,而是因为缺乏资金和市场可见性。例如,辉瑞在整个北美只有 12 名药物侦查员,负责与大学合作寻找知识产权。 在早期开发阶段,监管负担较轻,因此我们专注于这一领域。而进入临床阶段(如申请研究性新药 IND)后,监管要求会大幅增加。 我们也清楚,目前整个社区的流动性和资源,都不足以支持大规模的临床试验。从长远来看,我们构建的去中心化自治组织(DAO)可能会自主发起临床试验,甚至创建衍生公司来协调这些试验。这是一个令人兴奋的愿景,但要真正实现它,我们还需要更强的现实世界集成和资金支持。 不过对此,@HaotianGuo_qb 也泼了冷水,“100万美元能做个啥呢,发现一个对已知靶点可能有效的新药,就烧完了”。 所以,综上,我相信 Bio 创立初衷是为了解决药物科研领域现有问题。并且,改变传统行业固有的写作方式,用去中心化、去信任化和代币激励的方式,链接更多个人参与,正是区块链存在的初衷。 用区块链方式解决这一问题,实在是太合适不过了,只是这条路需要走很久很久,可能几年甚至几十年。而且需要巨大的投入。 $BIO 代币经济模型与拆分盘分析 1/ 初始分配 总供应量:3,320,000,000 BIO 代币状态:不可转让 最大供应量:无上限,由 BIO 治理决定。 新的 BIO 可以为协议或网络增长而铸造,这需要通过部署新的代币合约替代现有 BIO 代币。 初始流通筹码 39.05%,且公募获利盘巨大,前期可能有较重抛压。 2/ BIO 初始分配在创世阶段,BIO 的总供应量将分为以下八类(见下表和图表): 社区:56%社区拍卖:20% 社区空投:6% 生态激励:25% Molecule 生态基金:5% 投资者:13.6% 核心贡献者:21.2% 顾问:4.2% Molecule:5% 项目预期 项目预期主要来自以下几个方面: 1)币安生态卡位问题。 在连续错过链上 MEME 和 AI Agent 概念之后,Desci 可能是币安非常需要的赛道选择。 2)Desci 可容纳的资金量巨大,投资回报不太容易某一模型验证,这其实十分有利于一些不明来路的钱进入(你懂我在说什么) 3)穷人有穷人的智商税,富人当然也有富人的智商税。对长生的需求就是典型的富人智商税,毕竟有钱之后,一方面会更想“青史留名”,实现个人价值,而非一味对金钱的追求,教育和医疗是非常适合的投资领域;其次,追求长生也是人之常情。 @cz_binance @VitalikButerin 与 Coinbase 前 CTO @balajis 都对 Desci 领域充满兴趣。 4)$BIO 代币模型,是非常好的与科研成本切割模式,避免了直接将母币 $BIO 作为科研投入而不断卖币的尴尬局面。反而,只要子 DAO 科研有进展,都会对 $BIO 产生赋能。
Desci 是新骗局吗?聊聊币安最新 LaunchPad 项目 Bio Protocol
去中心化科学、药物科研、追求长生、化合物……看到这些 Desci 概念,大多数朋友想法应当跟我一样,这又是一个新的圈钱叙事,妥妥的骗子。
是的,我是带着偏见去研究 @bioprotocol 的。
随着阅读资料增多,始终有个无法解答——团队除了创立 Bio Protocol 之外,实际直接创立或参与运营 Molecule、VitaDAO、PsyDAO、Pump.Science 等项目。
熟悉的剧本,连续发项目圈钱?既然,已经直接或间接参与了这么多项目,为什么还要创立 Bio Protocol ? 为什么 Bio Protocol 还能拿到 Binance Labs 投资?
在深入研究了 Bio Protocol ,与 @octopusycc @HaotianGuo_qb 博士沟通之后,对 Desci 和 Bio 有了全新的认识,或许能帮助大家更好地认知 Bio 和 Desci 赛道。
[ 提前声明,我不是什么辩经的大儒,更没接到过币安和 Bio 任何推广,甚至这个推特到目前为止,从来没有接过任何一条广告(我也挺想接的,是真没人找我,呜呜呜)。]
什么是 Bio Protocol ?
Bio Protocol 是 Desci 代币 LaunchPad 平台,更是传统药物研究者者在币圈的融资平台。
研究者可成立一个 DAO,申请加入 Bio,再经由 $BIO 代币持有者投票决定是否允许该 DAO 加入并资助其发展。
在最理想的情况下,该生态系统应当实现如下图所示正向飞轮,即基于去中心化自治组织 (DAOs) 的科学研究,与知识产权(IP)商业化的循环系统:
1)DAOs(去中心化自治组织)
挑选和资助最有潜力的科学研究项目,决定资金的分配方向。
2)Research IP(研究与知识产权)代币化
研究成果转化为可代币化的知识产权,通过以下途径实现收益:
IP-NFTs & IPTs:将知识产权铸造成不可替代代币 (IP-NFT) 或其他形式的代币 (IPT)。NewCo Spinouts:孵化新公司,将研究成果推向市场。IP Licensing:将知识产权授权给传统的商业合作伙伴,获得许可费用。
3)Proceeds(收益回流)
知识产权被货币化后,收益回流到 DAOs 的资金库,用于资助更多研究项目。
在 Bio 之前,该团队的创业项目是 @Molecule_dao ,官网:https://www.molecule.xyz/ ,一个将药物研究代币化的平台。
药物研究者基于该平台融资,比如 Percepta,是基于猫爪藤(毛白杨)的抗炎抗氧化研究项目,该项目融资 127.7325 ETH 。目前已基于 Base 发币,代币为 $CLAW ,购买代币即购买该项目的 IP 化版权或收益权。
@Molecule_dao
平台很难说是成功还是不成功,该平台融资研究项目,确实能融到几十甚至上百 ETH,药物代币的 MCap 也能破千万美元。
且 @HaotianGuo_qb 博士表示,该融资“确实是可以养活一个postdoc + 一年一个实验台的租金”“对于一个小项目来讲是够做科研的”。
只不过,首先,Molecule 项目属实冷门;其次,研究者的真实性、进度管理等等,无法通过网站披露信息完全信任,或者对其某些作弊行为限制;
第三,该药物是否能商业化,距离商业化需要多久,该研究在该领域处于什么地位,是否有商业化可能性,完全不知道;
第四,购买了 IP 化代币之后,有哪些权益,是否能获得商业化的好处,完全未知。甚至连官方 Docs 也注明不能保证任何收益。当前仅存在炒作价值。当然,这些疑问,相信大家都会有。
而这些疑问存在的核心原因,直指一个关键问题——信任假设。
之所以有上述问题的出现,是因为“信任假设”成本太高了,投资者必须相信 Molecule 团队的项目筛选和跟进能力。
这就是该团队为什么要再创立 Bio Protocol 的原因,利用 DAO 群策群力,将信任假设去中心化,从团队转移到社区,更重要的是,切割法律风险和责任。
Bio 是 $BIO 持有者决策的社区,决定某个 DAO 是否可以加入 Bio 并获得资助,而每个具体的 DAO,才是药物的研究者和具体的执行者。准入的子DAO,可获 10万美元资助,同时需出让 6.9% 的代币给 Bio 主网。
Desci 究竟是故事,还是真能落地的应用?
刚开始,我也以为这是一个单纯停留在叙事层面的故事,直到我看到了创始人兼 CEO Paul Kohlhaas 的一篇采访 https://www.molecule.xyz/blog/paul-kohlhaas-desci-the-future-of-decentralized-science-zima-red-podcast 。 在采访中,他描述了自己过去的经历,以及药物研发行业的现状。
该行业目前面临大量“信任假设”及资源错配问题。
以下内容来自 Paul 的采访,
药物研发现状问题:
许多疾病,因为患者少,医药公司没有利润,不会去做额外的开发。
大约在 16-18岁时,Paul 活跃于一些在线生物黑客论坛,比如 Erowid。这些社区以“开源”方式,进行药物研究。
糖尿病患者社区,开发自己的开源胰岛素合成方法,后来形成美国“开源胰岛素运动”。癌症患者社区也在努力寻找替代方案,因为许多治疗药物价格高昂,患者负担不起。
在医学领域,有许多疾病并未引起制药公司的兴趣。通常,这些疾病是患者群体太小的罕见病,制药公司不愿意将相关药物推向市场。
尽管 FDA 对这些疾病领域提供了特殊审批途径,例如孤儿药认证(Orphan Drug Designation),但要让一款药物获得批准,仍困难重重。
“开源制药基金会(The Open Source Pharma Foundation)”由来自世界各地的研究人员组成,如,伦敦学院(UCL)和一些澳大利亚大学的研究人员,会将新的药物靶点,提交到一个可以在 GitHub 上找到的开源代码库中。他们用这种方式开源项目研究。
这些工作通常由像盖茨基金会(Gates Foundation)或其他国际人道主义机构资助。然而,这些组织通常缺乏足够的资金,无法将药物推向市场,很多时候项目会停滞不前。
研究人员一旦将药物靶点或潜在治疗方案上传到 GitHub 代码库,就再也无法申请专利了。一旦没有专利保护,制药公司和资助机构通常不愿意为这个药物,支付后续开发和临床试验的高昂成本。
第三阶段临床试验的费用可能高达数亿美元,尤其是针对某些特定的疾病。没有专利意味着这个药物只能作为仿制药进入市场,这让任何公司都无法通过销售药物收回投资。
因此,许多开源药物项目,如开源疟疾项目,尽管取得了重要进展,却无法获得资助来完成药物开发。
其次,“信任假设”。当前传统金融对生物医药公司投资,更多的是投资团队的学术背景。
@HaotianGuo_qb
从圈内人的角度讲,“生物医药公司直到 IPO,都是 PPT”,“Moderna,2012年成立,18年IPO,20年新冠之后,他才有第一个产品。这个已经是很成功的例子了,最后落地给你看了”,“蛋白质测序龙头老大,Quantum si 2020年上市之后才发了 Paper,有了 PPT”。
再次,Paul 提到生物科技股票的流动性问题。
生物技术股票通常是基于资产的价值进行交易的,其价格还受到公司开发这些资产的“烧钱率”影响。一般来说,这种股票的价格会稳定下降,反映出公司在开发过程中不断消耗资金的情况。
然而,当正面数据出现时,股价可能会在一天内上涨 5 倍或 10 倍;而当负面数据出现时,股价可能会在一天内下跌 80% 到 90%。
也就是说,对于 $VITA $PSY $GROW 等子 DAO 投资者来说,购买这些代币的回报,来自于其不断向市场释放科研利好。
因为,如果这些子 DAO 真的进行药物研发,他们需要卖币套现,将金钱投入研发,而这一过程,存在失败可能性。
所以,对传统生物企业来说,最佳的选择往往是,拿到巨额融资后,将融资放到银行吃利息。
针对现存问题,Paul 的认识十分清晰,他表示:
目前,重点是早期临床前开发阶段,目标是将知识产权从大学中转化出来,并为研究人员、实验室或团队提供资金支持,金额通常在 20 万到 100 万美元之间,用于完成临床前研究,意味着它们可以被生物技术公司或制药公司购买并继续开发,从而实现技术的无缝衔接。
这是为了克服很多创新在学术界阶段就停滞不前的问题。许多初创的生物技术公司不是因为创新不足而失败,而是因为缺乏资金和市场可见性。例如,辉瑞在整个北美只有 12 名药物侦查员,负责与大学合作寻找知识产权。
在早期开发阶段,监管负担较轻,因此我们专注于这一领域。而进入临床阶段(如申请研究性新药 IND)后,监管要求会大幅增加。
我们也清楚,目前整个社区的流动性和资源,都不足以支持大规模的临床试验。从长远来看,我们构建的去中心化自治组织(DAO)可能会自主发起临床试验,甚至创建衍生公司来协调这些试验。这是一个令人兴奋的愿景,但要真正实现它,我们还需要更强的现实世界集成和资金支持。
不过对此,@HaotianGuo_qb 也泼了冷水,“100万美元能做个啥呢,发现一个对已知靶点可能有效的新药,就烧完了”。
所以,综上,我相信 Bio 创立初衷是为了解决药物科研领域现有问题。并且,改变传统行业固有的写作方式,用去中心化、去信任化和代币激励的方式,链接更多个人参与,正是区块链存在的初衷。
用区块链方式解决这一问题,实在是太合适不过了,只是这条路需要走很久很久,可能几年甚至几十年。而且需要巨大的投入。
$BIO 代币经济模型与拆分盘分析
1/ 初始分配
总供应量:3,320,000,000
BIO 代币状态:不可转让 最大供应量:无上限,由 BIO 治理决定。 新的 BIO 可以为协议或网络增长而铸造,这需要通过部署新的代币合约替代现有 BIO 代币。
初始流通筹码 39.05%,且公募获利盘巨大,前期可能有较重抛压。
2/ BIO 初始分配在创世阶段,BIO 的总供应量将分为以下八类(见下表和图表): 社区:56%社区拍卖:20% 社区空投:6% 生态激励:25% Molecule 生态基金:5% 投资者:13.6% 核心贡献者:21.2% 顾问:4.2% Molecule:5%
项目预期
项目预期主要来自以下几个方面:
1)币安生态卡位问题。
在连续错过链上 MEME 和 AI Agent 概念之后,Desci 可能是币安非常需要的赛道选择。
2)Desci 可容纳的资金量巨大,投资回报不太容易某一模型验证,这其实十分有利于一些不明来路的钱进入(你懂我在说什么)
3)穷人有穷人的智商税,富人当然也有富人的智商税。对长生的需求就是典型的富人智商税,毕竟有钱之后,一方面会更想“青史留名”,实现个人价值,而非一味对金钱的追求,教育和医疗是非常适合的投资领域;其次,追求长生也是人之常情。 @cz_binance @VitalikButerin 与 Coinbase 前 CTO @balajis 都对 Desci 领域充满兴趣。
4)$BIO 代币模型,是非常好的与科研成本切割模式,避免了直接将母币 $BIO 作为科研投入而不断卖币的尴尬局面。反而,只要子 DAO 科研有进展,都会对 $BIO 产生赋能。
BIO
戈多Godot
--
当前 $DOGE 最大的问题是,市值不够大没有开玩笑,以下是我最近关于 $DOGE 和本周期 MEME 行情的想法。 如果本轮周期过后, $DOGE 超越 $ETH 成为市值第二大加密资产,我丝毫不会意外。 1/ 马斯克的社会实验 我始终认为,以马斯克为代表的科技新贵 New Money,正在进行颠覆现有主权货币的实验,或者,他们只是顺应了这个时代。 以 $BTC $DOGE 为武器,将美元控制权从美联储这些 Old Money 中抢夺过来。 在某种程度上,促成奥地利学派米塞斯和哈耶克的构想,即《货币的非国家化》。 我们每个人出生以来,信用货币已是生活中习以为常的存在。我们从小被教育,货币发行不应当以某种本位作为价值,且轻度通货膨胀对经济有益。但,事实真的如此吗? 米塞斯早在其100年前的著作中,就指出了通货膨胀的本质。央行超印货币。形成通货膨胀,即新的货币增发。 假设当前法币为1万亿,通货膨胀率2%,意味着今年新增200亿法币。但这新增的200亿法币,会流向何方?流到你我的手中吗?或者说,流到你我手中的时候,还剩多少呢? 在某些国家,新增货币首先投放给经济寡头掌控的大项目中。再由这些大项目层层下放。依附在这个链条上的寄生虫们,吸满鲜血,获得新增货币的分配权利。而其他人,则只是承受了通胀成本。 这也是为什么,在平均收入并不高的小镇里,偶尔会看到法拉利,玛莎拉蒂等豪车的出现。因为这些人,由于某种关系,获得工程承包权,占据了新增货币分配的上游,依附在了这个链条上。 同样的,在另一些国家,新增货币被用来投放给利益集团,或购买选票。那些投票者看似获利,其实也不尽然。 本质上,殊途同归。 08年的次贷危机,堪称运用分配不平等搞崩经济的代表作。有任何银行家因此坐牢,或受到惩罚吗?没有。有的只是普通人承受了国家印钱救市带来的通货膨胀压力。 本质上,有央行的国家面临的情况都是如此。这也是 BTC 诞生的根本原因。 实际上,BTC 的货币实验,在某种程度上,已经开始走向成功。如果特朗普真的能如约将 BTC 加入美国的资产负债表。那我丝毫不怀疑,这是 BTC 成为超主权货币的开始。 也丝毫不怀疑,人类货币有可能回到某种本位当中,比如 BTC 和黄金的双本位,或者再加上其他加密资产,以及现实资产,构成一揽子支撑法币的底层价值。 相比之下,我觉得 DOGE 更有可能,继 BTC 之后进入资产负债表,或者成为这一篮子底层价值的基础。 2/ 共识价值大于实用价值 为什么我觉得本轮 DOGE 可能会成为市值第二大的加密资产。除了马斯克的支持,最重要的原因是,共识价值大于实用价值。 以 $ETH 为代表的诸多加密资产,实际是实用型代币。ETH 的价值与 Ethereum 和相关生态的表现息息相关,也就是,可以用链上收入、成本等等一系列估值逻辑,为其进行合理定价。 尤其是 ETH ETF 审批通过,传统资金有了购买渠道后,他们更会这么做,即以传统 PE 等估值模型判断 ETH 合理价格。在某种程度上,成为了 ETH 等实用型代币的天花板。 相比之下,BTC、DOGE、PEPE 则不然。固然,我们可以用一些链上指标,来为 BTC 进行估值。但这些指标更多指向的是,BTC 的易手和转移情况,并且带有非常强的刻舟求剑属性。 所以,BTC 的价值,实际依赖的是共识,或者某种对现实法币不满的反叛精神,与身份认同。共识价值、身份认同价值,甚至自由,这些无价的。 DOGE 和 PEPE 亦是如此。 3/ 最出圈的加密资产,或许没有之一。 DOGE 是最出圈的加密资产,或许没有之一。每轮牛市,社交媒体总是充斥着各种与 DOGE 有关的内容,甚至 BTC 也难以望其项背。 MEME 属性本身就带有传播特性。从另一角度说,MEME 是将反叛精神代币化。 如果新资金进来,望着到时候 BTC 6位数的价格,可能很难下得去手。但,MEME 不一样,价格很亲民。 DOGE 是人民的 BTC。 所以,DOGE 的持有群体会更大,更有传播性。 如果以马斯克为代表的 New Money 真的在进行某些货币实验。或者说,是时代的趋势促使某些人站出来,引领这个时代,引领新兴阶级的夺权运动。 那 DOGE 需要更稳定,更大的持币群体,更多触及普通人的方式。 所以,当前 DOGE 的唯一问题,就是价格不够高,市值不够大。 我不确定,我是否陷入了回音室效应,或者某种自我感动里面。但我很期待以上这一天的出现,因为我只是一个普通人。 加油 DOGE,加油加密市场。
当前 $DOGE 最大的问题是,市值不够大
没有开玩笑,以下是我最近关于 $DOGE 和本周期 MEME 行情的想法。
如果本轮周期过后, $DOGE 超越 $ETH 成为市值第二大加密资产,我丝毫不会意外。
1/ 马斯克的社会实验
我始终认为,以马斯克为代表的科技新贵 New Money,正在进行颠覆现有主权货币的实验,或者,他们只是顺应了这个时代。
以 $BTC $DOGE 为武器,将美元控制权从美联储这些 Old Money 中抢夺过来。
在某种程度上,促成奥地利学派米塞斯和哈耶克的构想,即《货币的非国家化》。
我们每个人出生以来,信用货币已是生活中习以为常的存在。我们从小被教育,货币发行不应当以某种本位作为价值,且轻度通货膨胀对经济有益。但,事实真的如此吗?
米塞斯早在其100年前的著作中,就指出了通货膨胀的本质。央行超印货币。形成通货膨胀,即新的货币增发。
假设当前法币为1万亿,通货膨胀率2%,意味着今年新增200亿法币。但这新增的200亿法币,会流向何方?流到你我的手中吗?或者说,流到你我手中的时候,还剩多少呢?
在某些国家,新增货币首先投放给经济寡头掌控的大项目中。再由这些大项目层层下放。依附在这个链条上的寄生虫们,吸满鲜血,获得新增货币的分配权利。而其他人,则只是承受了通胀成本。
这也是为什么,在平均收入并不高的小镇里,偶尔会看到法拉利,玛莎拉蒂等豪车的出现。因为这些人,由于某种关系,获得工程承包权,占据了新增货币分配的上游,依附在了这个链条上。
同样的,在另一些国家,新增货币被用来投放给利益集团,或购买选票。那些投票者看似获利,其实也不尽然。
本质上,殊途同归。
08年的次贷危机,堪称运用分配不平等搞崩经济的代表作。有任何银行家因此坐牢,或受到惩罚吗?没有。有的只是普通人承受了国家印钱救市带来的通货膨胀压力。
本质上,有央行的国家面临的情况都是如此。这也是 BTC 诞生的根本原因。
实际上,BTC 的货币实验,在某种程度上,已经开始走向成功。如果特朗普真的能如约将 BTC 加入美国的资产负债表。那我丝毫不怀疑,这是 BTC 成为超主权货币的开始。
也丝毫不怀疑,人类货币有可能回到某种本位当中,比如 BTC 和黄金的双本位,或者再加上其他加密资产,以及现实资产,构成一揽子支撑法币的底层价值。
相比之下,我觉得 DOGE 更有可能,继 BTC 之后进入资产负债表,或者成为这一篮子底层价值的基础。
2/ 共识价值大于实用价值
为什么我觉得本轮 DOGE 可能会成为市值第二大的加密资产。除了马斯克的支持,最重要的原因是,共识价值大于实用价值。
以 $ETH 为代表的诸多加密资产,实际是实用型代币。ETH 的价值与 Ethereum 和相关生态的表现息息相关,也就是,可以用链上收入、成本等等一系列估值逻辑,为其进行合理定价。
尤其是 ETH ETF 审批通过,传统资金有了购买渠道后,他们更会这么做,即以传统 PE 等估值模型判断 ETH 合理价格。在某种程度上,成为了 ETH 等实用型代币的天花板。
相比之下,BTC、DOGE、PEPE 则不然。固然,我们可以用一些链上指标,来为 BTC 进行估值。但这些指标更多指向的是,BTC 的易手和转移情况,并且带有非常强的刻舟求剑属性。
所以,BTC 的价值,实际依赖的是共识,或者某种对现实法币不满的反叛精神,与身份认同。共识价值、身份认同价值,甚至自由,这些无价的。
DOGE 和 PEPE 亦是如此。
3/ 最出圈的加密资产,或许没有之一。
DOGE 是最出圈的加密资产,或许没有之一。每轮牛市,社交媒体总是充斥着各种与 DOGE 有关的内容,甚至 BTC 也难以望其项背。
MEME 属性本身就带有传播特性。从另一角度说,MEME 是将反叛精神代币化。
如果新资金进来,望着到时候 BTC 6位数的价格,可能很难下得去手。但,MEME 不一样,价格很亲民。
DOGE 是人民的 BTC。
所以,DOGE 的持有群体会更大,更有传播性。
如果以马斯克为代表的 New Money 真的在进行某些货币实验。或者说,是时代的趋势促使某些人站出来,引领这个时代,引领新兴阶级的夺权运动。
那 DOGE 需要更稳定,更大的持币群体,更多触及普通人的方式。
所以,当前 DOGE 的唯一问题,就是价格不够高,市值不够大。
我不确定,我是否陷入了回音室效应,或者某种自我感动里面。但我很期待以上这一天的出现,因为我只是一个普通人。
加油 DOGE,加油加密市场。
戈多Godot
--
模块化项目 #Celestia 学习笔记 Part2:1/ 不可能三角与数据可用性问题 不可能三角,又称三元悖论,通常指去中心化(Decentralization)、可扩展性(Scability)、安全性(Security)三者不可同时兼得,最早由以太坊官方提出。 1.1/ 交易上链,首先进入 Mempool,由矿工“挑选”,打包成块,将该区块拼接到区块链上。 包含这笔交易的区块,会向网络内全体节点广播。其他全节点将下载这个新区块,执行复杂计算,验证其中每一笔交易,确保交易真实有效。 复杂计算和冗余,是以太坊安全基础,也带来了问题。 2/ 数据可用性问题 节点通常有两种: 全节点——下载并验证所有区块信息及交易数据。 轻节点——易部署,只验证区块头(数据摘要)。 首先,确保新区块产生时,该区块中的所有数据确实已发布,使得其他节点可校验。若全节点未发布区块中所有数据,则其他节点无法检测,该区块是否隐藏恶意交易。 2.1/ 若某全节点隐瞒一些交易数据,其他全节点校验后,会拒绝跟随此区块,但仅下载区块头的轻节点无法校验,会继续跟随这条分叉区块,影响安全。 尽管区块链会罚没该全节点保证金,但质押给该节点的用户也会受到损失。 且当作恶收益,超过成本,节点有动机隐瞒。 2.2/ 另一方面,若全节点部署逐渐中心化,节点间存在串通可能,会危及整条链的安全。 这是为什么数据可用很重要。 数据可用越来越受到关注,一方面因为以太坊 PoS 合并,另一方面则是 Rollup 发展。当前 Rollup 会运行中心化定序器(Sequencer)。 2.3/ 用户在 Rollup 上交易,定序器为交易排序、打包、压缩,发布到以太坊主网,由主网全节点通过欺诈证明(Optimistic)或有效性证明(ZK)验证数据。 只要定序器提交的区块所有数据真实可用,以太坊主网才可据此跟踪、校验、重建 Rollup状态,保证数据真实和用户财产安全。 3/状态爆炸与中心化 状态爆炸是指,以太坊全节点积累的历史和状态数据越来越多,运行全节点需要的存储资源越来越大,运行门槛提高,致使网络节点中心化。 因此,需要某种方式,使全节点在同步以及验证区块数据时,无需下载所有数据,只需要下载区块的部分冗余片段即可。 4/ 至此,我们明白了数据可用性很重要。那么,如何避免“公地悲剧”产生?即大家都清楚数据可用的重要性,但仍需要一些切实的利益驱动,让大家使用单独数据可用层。 就像每个人都知道保护环境很重要,但看到路边的垃圾,“我”为什么要把它捡起来?为什么不是别人?“我”把垃圾捡起来,能得到什么好处? 5/什么是Celestia ? Celestia 为其他 Layer1、Layer2 提供可插拔的数据可用层和共识,基于 Cosmos Tendermint 共识及 Cosmos SDK构建。 5.1/ #Celestia 是Layer1协议,兼容EVM链及 #Cosmos 应用链,未来将支持所有类型的Rollup,这些链可直接使用 Celestia作为数据可用层,区块数据将通过Celestia 存储、调用、校验,再回到自有协议清算。 Celestia也支持原生Rollup,可直接在其上构建Layer2,但不支持智能合约,所以无法直接构建dApp。
模块化项目 #Celestia 学习笔记 Part2:
1/
不可能三角与数据可用性问题 不可能三角,又称三元悖论,通常指去中心化(Decentralization)、可扩展性(Scability)、安全性(Security)三者不可同时兼得,最早由以太坊官方提出。
1.1/
交易上链,首先进入 Mempool,由矿工“挑选”,打包成块,将该区块拼接到区块链上。 包含这笔交易的区块,会向网络内全体节点广播。其他全节点将下载这个新区块,执行复杂计算,验证其中每一笔交易,确保交易真实有效。 复杂计算和冗余,是以太坊安全基础,也带来了问题。
2/
数据可用性问题 节点通常有两种: 全节点——下载并验证所有区块信息及交易数据。 轻节点——易部署,只验证区块头(数据摘要)。 首先,确保新区块产生时,该区块中的所有数据确实已发布,使得其他节点可校验。若全节点未发布区块中所有数据,则其他节点无法检测,该区块是否隐藏恶意交易。
2.1/
若某全节点隐瞒一些交易数据,其他全节点校验后,会拒绝跟随此区块,但仅下载区块头的轻节点无法校验,会继续跟随这条分叉区块,影响安全。 尽管区块链会罚没该全节点保证金,但质押给该节点的用户也会受到损失。 且当作恶收益,超过成本,节点有动机隐瞒。
2.2/
另一方面,若全节点部署逐渐中心化,节点间存在串通可能,会危及整条链的安全。 这是为什么数据可用很重要。 数据可用越来越受到关注,一方面因为以太坊 PoS 合并,另一方面则是 Rollup 发展。当前 Rollup 会运行中心化定序器(Sequencer)。
2.3/
用户在 Rollup 上交易,定序器为交易排序、打包、压缩,发布到以太坊主网,由主网全节点通过欺诈证明(Optimistic)或有效性证明(ZK)验证数据。 只要定序器提交的区块所有数据真实可用,以太坊主网才可据此跟踪、校验、重建 Rollup状态,保证数据真实和用户财产安全。
3/状态爆炸与中心化
状态爆炸是指,以太坊全节点积累的历史和状态数据越来越多,运行全节点需要的存储资源越来越大,运行门槛提高,致使网络节点中心化。 因此,需要某种方式,使全节点在同步以及验证区块数据时,无需下载所有数据,只需要下载区块的部分冗余片段即可。
4/
至此,我们明白了数据可用性很重要。那么,如何避免“公地悲剧”产生?即大家都清楚数据可用的重要性,但仍需要一些切实的利益驱动,让大家使用单独数据可用层。 就像每个人都知道保护环境很重要,但看到路边的垃圾,“我”为什么要把它捡起来?为什么不是别人?“我”把垃圾捡起来,能得到什么好处?
5/什么是Celestia ?
Celestia 为其他 Layer1、Layer2 提供可插拔的数据可用层和共识,基于 Cosmos Tendermint 共识及 Cosmos SDK构建。
5.1/
#Celestia 是Layer1协议,兼容EVM链及 #Cosmos 应用链,未来将支持所有类型的Rollup,这些链可直接使用 Celestia作为数据可用层,区块数据将通过Celestia 存储、调用、校验,再回到自有协议清算。 Celestia也支持原生Rollup,可直接在其上构建Layer2,但不支持智能合约,所以无法直接构建dApp。
ATOM
戈多Godot
--
模块化项目 #Celestia 学习笔记 Part2: 1/ 不可能三角与数据可用性问题 不可能三角,又称三元悖论,通常指去中心化(Decentralization)、可扩展性(Scability)、安全性(Security)三者不可同时兼得,最早由以太坊官方提出。 1.1/ 交易上链,首先进入 Mempool,由矿工“挑选”,打包成块,将该区块拼接到区块链上。 包含这笔交易的区块,会向网络内全体节点广播。其他全节点将下载这个新区块,执行复杂计算,验证其中每一笔交易,确保交易真实有效。 复杂计算和冗余,是以太坊安全基础,也带来了问题。
模块化项目
#Celestia
学习笔记 Part2:
1/
不可能三角与数据可用性问题 不可能三角,又称三元悖论,通常指去中心化(Decentralization)、可扩展性(Scability)、安全性(Security)三者不可同时兼得,最早由以太坊官方提出。
1.1/
交易上链,首先进入 Mempool,由矿工“挑选”,打包成块,将该区块拼接到区块链上。 包含这笔交易的区块,会向网络内全体节点广播。其他全节点将下载这个新区块,执行复杂计算,验证其中每一笔交易,确保交易真实有效。 复杂计算和冗余,是以太坊安全基础,也带来了问题。
戈多Godot
--
这样解释数据可用层项目 Celestia,应该就比较好理解了TL;DR 1/ 模块化本质是打破“不可能三角”,在不增加节点硬件负担前提下,实现扩容。 2/ Celestia 是数据可用层,与 Optimistic Rollup 类似,默认区块数据有效,利用欺诈证明、纠删码和数据可用性抽样,进行数据校验,同时实现让轻节点参与校验。 3/ Celestia 已初步形成生态,目前生态知名项目有 Fuel、Cevmos 等。 4/ Celestia 如何能把握窗口期,在 Polygon Avail 和 Danksharding 之前形成规模效应,吸引大量流动性,尤其是原生Rollup 的流动性,这点将至关重要。 通常,会将 Layer1 分为四层: 1)共识层 2)结算层 3)数据层 4)执行层 共识层是必需的。模块化是指,将结算、数据、执行其中之一或之二拆出来(严谨点称“解耦”),加上共识组成新一层网络协议,以打破“不可能三角”,在不增加节点硬件负担,造成中心化的前提下,实现扩容。 如以太坊 Rollup,将执行层拆出来,提供共识和执行,由中心化定序器(Sequencer)排序交易,将大量交易打包压缩,提交到以太坊主网,由主网全节点校验交易数据。 Celestia 是数据可用层(Data Availability, DA)项目,基于Cosmos架构,为其他 Layer1、Layer2 提供数据层、共识层,构建模块化区块链,商业模式 toB,面向其他公链收费。 要全面理解 Celestia 与数据可用,先要从“不可能三角”和数据可用性问题讲起。 为什么数据可用性重要?从“不可能三角”到数据可用性问题 不可能三角,又称三元悖论,通常指去中心化(Decentralization)、可扩展性(Scability)、安全性(Security)三者不可同时兼得,最早由以太坊官方提出。 通常,交易提交到链上,首先会进入 Mempool,由矿工“挑选”,打包成区块,将该区块拼接到区块链上。 包含这笔交易的区块,会向网络内全体节点广播。其他全节点将下载这个新区块,执行复杂计算,验证其中每一笔交易,确保交易真实有效。 复杂计算和冗余,是以太坊安全基础,也带来了问题。 1)数据可用性 节点通常有两种: 全节点——下载并验证所有区块信息及交易数据。 轻节点——非完全验证节点,易部署,只验证区块头(数据摘要)。 首先,确保新区块产生时,该区块中的所有数据确实已发布,使得其他节点可校验。若全节点未发布区块中所有数据,则其他节点无法检测,该区块是否隐藏恶意交易。 也就是说,节点需要获取一定时间内的所有交易数据,并验证,不存在已经确认但未验证的交易数据。这便是通常意义上的数据可用性。 若某个全节点隐瞒一些交易数据,其他全节点在校验后,会拒绝跟随此区块,但仅下载区块头信息的轻节点则无法校验,会继续跟随这条分叉区块,影响安全。 尽管通常区块链会罚没该全节点保证金,但这同样会使质押给该节点的用户受到损失。 且当隐瞒数据的收益,超过罚没成本,节点有动机隐瞒,届时实际受损的,只会是质押用户和该链其他使用者。 另一方面,若全节点部署逐渐中心化,节点间存在串通可能,会危及整条链的安全。 这是为什么数据可用很重要。 数据可用越来越受到关注,一方面因为以太坊 PoS 合并,另一方面则是 Rollup 发展。当前 Rollup 会运行中心化定序器(Sequencer)。 用户在 Rollup 上交易,定序器为交易排序、打包、压缩,发布到以太坊主网,由主网全节点通过欺诈证明(Optimistic)或有效性证明(ZK)验证数据。 只要定序器提交的区块所有数据真实可用,以太坊主网才可据此跟踪、校验、重建 Rollup状态,保证数据真实和用户财产安全。 2)状态爆炸与中心化 状态爆炸是指,以太坊全节点积累的历史和状态数据越来越多,运行全节点需要的存储资源越来越大,运行门槛提高,致使网络节点中心化。 因此,需要某种方式,使全节点在同步以及验证区块数据时,无需下载所有数据,只需要下载区块的部分冗余片段即可。 至此,我们明白了数据可用性很重要。那么,如何避免“公地悲剧”产生?即大家都清楚数据可用的重要性,但仍需要一些切实的利益驱动,让大家使用单独数据可用层。 就像每个人都知道保护环境很重要,但看到路边的垃圾,“我”为什么要把它捡起来?为什么不是别人?“我”把垃圾捡起来,能得到什么好处? 轮到 Celestia 登场了。 什么是Celestia ? Celestia 为其他 Layer1、Layer2 提供可插拔的数据可用层和共识,基于 Cosmos Tendermint 共识及 Cosmos SDK构建。 Celestia 是 Layer1 协议,兼容 EVM 链及 Cosmos 应用链,未来将支持所有类型的 Rollup,这些链可直接使用 Celestia 作为数据可用层,区块数据将通过 Celestia 存储、调用、校验,再回到自有协议清算。 Celestia 也支持原生Rollup,可直接在其上构建 Layer2,但不支持智能合约,所以无法直接构建 dApp。 Celestia 工作原理 Rollup 通过运行Celestia 节点,接入 Celestia。 Celestia 接收 Rollup 交易信息,通过 Tendermint 共识排序交易。之后,Celestia 不会执行交易,也不会质疑交易有效性,只是将交易进行打包排序、广播。 是的,换句话说,隐瞒交易数据的区块,也可以发布到 Celestia 上。那 Celestia 如何识别呢? 校验通过纠删码(Erasure Coding)和数据可用性抽样(Data Availability Sampling,DAS)完成。 具体来说,原始数据为K(若实际数据大小不足K,则会补充无效数据,使大小等于K),对其进行纠删编码,分成 N 多个小枝干(Chunks),并扩展为 2K 行列大小的矩阵。 可以简单理解为,一个长、宽都为 K 的正方形,面积为 K*K,纠删编码后变为长、宽为 2K,面积为 2K*2K。 若原始数据为 1Mb,对其进行纠删编码,分成若干份,并扩展 4Mb 大小,其中 3Mb 为特殊数据。仅需其中一部分K*K 大小数据,便可恢复或查看全部 2K*2K 数据。 具体的数学计算极其复杂,但得到的结果是,即使恶意出块者隐瞒哪怕 1%交易数据,也会变成隐瞒 50%以上的枝干(Chunks)。 所以,若想使隐瞒生效,就会使数据矩阵发生质的变化,能被轻节点轻易发现。这使得隐瞒数据,有极其大的概率,成为不可能的事件。 全节点可通过欺诈证明,校验数据,跟其他 Layer1 类似。而纠删码关键的作用在于,调动轻节点,参与数据校验。 全节点将区块头发给轻节点,由轻节点进行数据可用性抽样。若数据无隐瞒,则轻节点认可该区块。若数据有缺失,则轻节点会发送给其他全节点。其他全节点会发起欺诈证明。 总结下, 1/ Celestia 使用纠删码,对原始数据编码,将原始数据切成若干小份(Chunks)。(若区块仍有空间,则使用无效数据补足,使得留有空间的区块,便是全节点隐瞒数据的区块) 2/ 将 K*K 大小的原始数据,扩展为2K*2K。因为 K*K 数据已分为若干小份,所以 2K*2K 数据的状态,也是如此,呈若干小份。 3/ 由此得到三个好处: 1)因为数据切成若干小份,使得轻节点也可参与校验。(若数据仍是大份,轻节点受制于硬件,无法参与校验) 2)仅需抽样 K*K 大小数据,可还原全部 2K*2K 数据全貌。轻节点们轮番抽样,直到抽样大小为 K*K,则可通过数据全貌对比,选择是否认可当前区块。 3)使恶意出块者隐瞒哪怕 1%交易数据,也会变成隐瞒 50%以上的枝干(Chunks)。 4/ 全节点可直接通过欺诈证明校验区块数据,与以太坊等其他 Layer1 类似。 5/ 轻节点则可通过数据可用性抽样校验,多个轻节点随意抽样,直到抽取数据面积大小为 K*K。这是 Celestia 的创新之处。 6/ 对于轻节点抽样来说,抽样模型是亚线性的(Sub-linear)。他们仅需下载所需抽样数据量的平方根数量即可。即,若有 10,000个小份Chunks数据需要抽样,仅需要下载并检查其中100个。 因为 100的平方是10,000。 7/ 若轻节点校验的区块数据有隐瞒,可提交给其他全节点,通过欺诈证明,罚没作弊节点保证金。 Celestia 扩容 纠删码和数据可用性抽样,使 Celestia 与其他 Layer1 现有数据可用相比,实现了进一步扩容,提升网络效率。 1/ 采用欺诈证明,默认区块数据可用,保证正常情况下,网络高效运行。 2/ 轻节点越多,网络效率越高。 因为原始数据大小为 K*K,若只有一个轻节点,则需要做 K*K 次抽样。反之,若有 K*K 个轻节点,仅需1次抽样。 3/ 亚线性抽样,使 Celestia可使用大区块。 此外,纠删码的特性,使得万一 Celestia 全节点发生大规模故障,轻节点们手中的若干枝干数据,可恢复交易数据,确保数据仍可访问。 Quantum Gravity Bridge Quantum Gravity Bridge 是 Celestia 与 以太坊 Layer2 的中继桥,搭建在以太坊上,Layer2 可以通过 Quantum Gravity Bridge 将交易数据发布到Celestia,使用数据可用服务,通过智能合约,校验 Celestia 上的数据。 Celestium Celestium 是以太坊 Layer2,使用Celestia 作为数据可用层,用以太坊作为结算和共识层。 目前处于开发阶段。 为什么要用 Celestia ? 还记得我们之前提到的“公地悲剧”吗?即 Rollup 为什么要使用 Celestia 作为数据层? 1/ 使用 Celestia 成本低 以太坊 Rollup 现有成本由两部分构成: 1)Rollup 自身Gas成本。即用户交互,定序器进行排序,状态转换时收费的费用。 2)Rollup 将区块提交到以太坊,花费的Gas。 Rollup 定序器打包、压缩后,会在以太坊上创建一个区块。目前存储为 Calldata形式,成本为每字节 16 Gas。 以太坊和 Rollup 各自根据拥堵情况不同,收取的 Gas也不同。定序器在批量处理用户交互内容前,会尽力预测以太坊 Gas 费用,并向用户收取。 也就是说,Rollup 上的 Gas 之所以便宜,是因为将用户若干笔交互打包到一起,相当于大家均摊了 Gas。 当市场处于冷淡期,以太坊上交互较少,大家需要均摊的 Gas 也会减少,Rollup 只会在正常 Gas 上收取很小的利润。一旦,以太坊上 Gas 飙升,Rollup 上的Gas 也会上涨。 所以,Rollup 本质上还是在跟以太坊主网的 dApp 和其他 Rollup 抢夺区块空间。 另一方面,Rollup 自身交互火爆,也会拉高 Gas。比如前不久的 Aribitrum Odyssey。 总的来说,Rollup 当前成本模式为线性,成本会随以太坊交互需求情况,上升会下降。 而 Celestia 的成本则是亚线性,成本最终会趋近于一个值,一个远低于以太坊现有成本的值。 在 EIP-4844 升级部署后,Rollup数据存储会从 Calldata 变为 Blob,费用降低,但仍旧比 Celestia 贵。 2/ 自主 Rollup(Self Sovereignty) 自主 Rollup,实质是给了 Rollup 自主分叉的权力。Celestia 原生 Rollup 是拥有自主的链,治理及分叉升级不受Celestia 限制。 分叉为什么重要? 通常区块链需要通过硬分叉升级,而分叉会影响削弱安全性。原因是,若有人想要更改或升级区块链代码,需要其他参与者同意且更改。 如果想对整条链进行升级,需要分叉整个共识层,就像以太坊 PoS 合并不得不采用算力炸弹,迫使节点从PoW 迁移到 PoS一样。所有节点都参与升级,才不会丢失任何安全性。 Celestia 则会为 Rollup提供分叉能力,因为所有分叉使用相同的数据可用层。 此外,自主 Rollup 也会带来更多灵活性。以太坊 Rollup 受限于以太主网处理欺诈证明或有效性证明的能力。 自主 Rollup 则不依赖特定的虚拟机,如 EVM。所以,自主 Rollup 有更多的选择性,比如成为 Solana VM 等等。不过,采用不同 VM 虚拟机,互操作性会受限。 另一方面,目前 Rollup 对成为自主 Rollup 的需求可能并不大, A. 受中心化资产限制。比如 USDC、USDT 官方不支持新分叉链。 B. 受 dApp 迁移限制。如,Uniswap 等 dApp仍留在之前的链上,且用户不肯放弃原有习惯,未迁移到新分叉链上。 3/ 信任最小化桥(trust minimized bridges)与共享安全 Celestia 官方文章,将跨链大致分为两类: A. 可信跨链桥,需要信任第三方,比如中继链节点。其可靠性建立在第三方节点共识之上,即节点多数是诚实的。 B. 信任最小化跨链桥,类似以太坊和 Rollup 的关系,靠欺诈证明(Optimistic)和有效性证明(ZK),校验 Rollup 交易数据有效性。 Celestia 提出一个概念——集群(Clusters),即一组相互通信的链,通过信任最小化桥跨链,每条链都可以验证其他链的状态。 通常,集群会遇到两个限制因素, A. 集群内所有链需要了解彼此的执行环境。但这很难,如 ZK Rollup之间需要了解彼此的 ZK 系统。但 zk-SNARK 和zk-STARK 是不同的 ZK 系统。所以,ZK Rollup 之间相对独立。 B. 为保持集群内所有链,使用信任最小化状态验证,每条链必须以信任最小化方式,验证该集群内,其他链区块数据可用性。 而使用 Celestia 作为数据可用层集群中的所有链,都可以检查彼此的块是否包含在 Celestia链中。 不过,略微尴尬的是,Celestia 集群概念中,Optimistic Rollup 和 ZK Rollup 属于两个集群。 也就是 Optimistic Rollup 间,如 Optimism、Aribitrum 同属一个集群,他俩与 zkSync 则不是。 且由于 ZK Rollup 方案差异,zkSync和 StarkNet 甚至也不属于同一集群。所以,Celestia仍不能解决 Rollup 间相对独立,缺乏原子级别互操作性问题。 Optimint(Optimistic Tendermint) Optimint 是 Tendermint共识替代品,允许开发者构建基于 Cosmos 的 Rollup,同时使用Celestia 作为共识和数据可用层。 目标是,让基于 Cosmos 的 Rollup形成集群。 Celestia 现有生态项目 Fuel Fuel 是建立在 Celestia 的模块化执行层,是以太坊Optimistic Rollup Layer2。 Fuel 构建了 FuelVM,一个为智能合约专门构建的定制虚拟机,可处理并行交易,使用UTXO 账户。 Cevmos Cevmos 是 Cosmos EVM应用链和 Celestia 共同开发的 Rollup Cevmos 使用 Optimint 构建,由于Evmos 本身就是一个 Rollup,所以 Cevmos 实际是 Rollup 中的 Rollup(递归 Rollup)。 以太坊上已有的 Rollup 合约与应用,可以重新在 Cevmos 上部署,使用其为结算层,使用 Celestia 作为数据层。 每个构建Rollup 都会有与 Cevmos Rollup 双向信任最小化的桥,形成集群。 dYmension dYmension 是基于 Cosmos构建的自主 Rollup,dYmension Hub 提供结算,且提供开发套件RDK、链间通讯 IRC,方便专注 Rollup 的应用 rollApp 开发。 Eclipse Eclipse 是基于 Cosmos 的自主 Rollup,使用 Solana VM 作为结算和执行层,Celestia 作为数据层。 项目进展 目前测试网已上线。奖励版测试网将于2023年第一季度发布。现在可以去官方Discord 领取水龙头测试币。主网预计2023年第二季度发布。 融资情况 2021年3月,完成150万美元种子轮融资,参与者包括 Binance Labs、Interchain Foundation、Maven 11、KR1 等等。 2021年12月,完成273万美元融资,参投信息未公开。 2022年10月,完成5500万美元融资,参与者包括Bain Capital、Polychain Capital、Placeholder、Galaxy、Delphi Digital、Blockchain Capital、Spartan Group、FTX Ventures、Jump Crypto 等等。 团队情况 CEO Mustafa Al-Bassam,UCL 区块链扩容领域博士,Chainspace(被Facebook收购)联合创始人 CTO Ismail Khoffi,前 Tendermint 和 Interchain 基金会的高级工程师 CRO John Adler,Optimistic Rollups创建者,前 ConsenSys 可扩展性研究员 COO Nick White,Harmony联合创始人,斯坦福大学学士和硕士。 顾问团队: Zaki Manian —— IBC 共同创建者和早期 Cosmos贡献者 Ethan Buchman —— Tendermint 联合创始人和 Cosmos 联合创始人 Morgan Beller —— NFX 普通合伙人,Diem≋(又名Libra) 联合创始人 Nick White —— Harmony 联合创始人 James Prestwich —— Summa(被Celo收购) 创始人 George Danezis —— 伦敦大学学院的安全和隐私工程教授 代币经济模型 从已公布的信息来看,Celestia 原生代币将作为 Gas,协议收入来源是 Rollup 交易费用。且代币包含类似 EIP-1559 的销毁机制。 目前,Celestia 一级市场估值 10亿美元。 竞品 Polygon Avail Avail 是 Polygon 推出的数据可用性方案。实现思路与Celestia 相同,不同点在于,Celestia 使用纠删码+ 欺诈证明,Avail 使用纠删码 + KZG 多项式承诺(KZG Polynomial Commitment)。 Celestia 是将K*K 数据扩展成2K*2K 正方形,Avail 是按行扩展,将 n 行 m 列矩阵,扩展成 2n 行,并为每行计算KZG 多项式承诺。 轻节点使用数据可用性抽样 DAS,用密码学方式核对 KZG 多项式和证明就可以,不需要下载原始数据。 相比之下,Avail 实现难度更大,在完全实现的情况下,结果也相对更可靠。不过目前,两个项目都在开发中,很难判断竞争情况。 以太坊 Danksharding Danksharding 是以太坊官方计划推出的独立数据可用层。与 Avail 类似,Danksharding 使用纠删码 + KZG多项式承诺,数据格式则会使用 Blob 替代现有的 calldata。 在 Danksharding 部署前,有两个提案作为过渡。 EIP-4488 直接硬性将 calldata gas 从每字节 16减少到 3,还规定了 calldata 占用上限 1.4Mb。 EIP-4844 引入 Blob(blob-carrying transactions,blob: binary large objects)代替 calldata。Blob 是一种新交易类型,包含额外的存储空间,成本比 calldata 低得多。 Blob 存储在以太坊信标链上,与之后的分片兼容,使用 KZG 承诺哈希值,用于校验数据,Rollup 无需访问数据,校验 KZG 承诺即可。 KZG 承诺是绑定的,计算完成后无法更改。所以,本质上,Avail 和 Danksharding 基于密码学的 KZG 多项式承诺校验数据,而 Celestia 则基于经济学的欺诈证明方式。 理论上,KZG 多项式承诺安全性要优于欺诈证明,同时,要求带宽更小,抽样所需计算量更小。未来,以太坊也考虑引入抗量子攻击的验证方式,如zk-SRARK。 风险 1)中心化 尽管纠删码让轻节点也可参与数据校验,但 Celestia 数据存储仍旧需要搭建存储全节点。 要求内存 8GB,CPU 4核,剩余存储空间至少250GB,上行带宽大于 100Mb/s,下行带宽大于 1Gb/s。配置要求很高,需要搭建在云服务器上。 2)以太坊 Danksharding 的竞争 3)“脏账本”问题 该问题是斯坦福研究小组提出的。Celestia 采用欺诈证明,默认区块数据可用,保证正常情况下,网络高效运行,所以是“脏”账本,因为数据有问题的区块,仍会被Celestia 接受,等待欺诈证明的挑战。 假设,某挑战者想证明交易 Tc 是一笔双花,并提交证据说明,该钱已用于交易Tb。但如果存在交易 Ta 能证明 Tb是无效的呢? 若 Tb 无效,则 Tc 双花可能有效。 在某些情况下,“脏账本”无法获知交易真实状态,除非重放 Celestia 历史每一笔交易,直到创世区块。 这意味着,挑战者和被挑战者,都必须是全存储节点。该问题发布在 Celestia 官方Youtube 账号上,目前团队在解决该问题,比如引入弱主观性假设。 弱主观性假设是解决问题的条件。比如,如何买好吃的柚子?这个问题中的主观性,是按主观感觉挑选。客观性是按照柚子重力与体积之比,判断柚子水份情况。 弱主观性则是,双手分别捧起体积差不多的柚子,比较重量。比较几个之后,选择最重的。 回到 Celestia “脏账本”问题,可以要求要求挑战者和被挑战者者保留 3 周数据,但这对节点来说,同样是负担。 “脏账本”问题,其实是基于经济学模型保障安全的欺诈证明,面对的本质问题。但欺诈证明的部署难度,小于 KZG 多项式承诺,理论上 Celestia 开发进度比 Polygon Avail 和以太坊 Danksharding 更快。 所以,Celestia 如何能把握窗口期,在 Polygon Avail 和 Danksharding 之前形成规模效应,吸引大量流动性,尤其是原生Rollup 的流动性,这点将至关重要。
这样解释数据可用层项目 Celestia,应该就比较好理解了
TL;DR
1/ 模块化本质是打破“不可能三角”,在不增加节点硬件负担前提下,实现扩容。
2/ Celestia 是数据可用层,与 Optimistic Rollup 类似,默认区块数据有效,利用欺诈证明、纠删码和数据可用性抽样,进行数据校验,同时实现让轻节点参与校验。
3/ Celestia 已初步形成生态,目前生态知名项目有 Fuel、Cevmos 等。
4/ Celestia 如何能把握窗口期,在 Polygon Avail 和 Danksharding 之前形成规模效应,吸引大量流动性,尤其是原生Rollup 的流动性,这点将至关重要。
通常,会将 Layer1 分为四层:
1)共识层
2)结算层
3)数据层
4)执行层
共识层是必需的。模块化是指,将结算、数据、执行其中之一或之二拆出来(严谨点称“解耦”),加上共识组成新一层网络协议,以打破“不可能三角”,在不增加节点硬件负担,造成中心化的前提下,实现扩容。
如以太坊 Rollup,将执行层拆出来,提供共识和执行,由中心化定序器(Sequencer)排序交易,将大量交易打包压缩,提交到以太坊主网,由主网全节点校验交易数据。
Celestia 是数据可用层(Data Availability, DA)项目,基于Cosmos架构,为其他 Layer1、Layer2 提供数据层、共识层,构建模块化区块链,商业模式 toB,面向其他公链收费。
要全面理解 Celestia 与数据可用,先要从“不可能三角”和数据可用性问题讲起。
为什么数据可用性重要?从“不可能三角”到数据可用性问题
不可能三角,又称三元悖论,通常指去中心化(Decentralization)、可扩展性(Scability)、安全性(Security)三者不可同时兼得,最早由以太坊官方提出。
通常,交易提交到链上,首先会进入 Mempool,由矿工“挑选”,打包成区块,将该区块拼接到区块链上。
包含这笔交易的区块,会向网络内全体节点广播。其他全节点将下载这个新区块,执行复杂计算,验证其中每一笔交易,确保交易真实有效。
复杂计算和冗余,是以太坊安全基础,也带来了问题。
1)数据可用性
节点通常有两种:
全节点——下载并验证所有区块信息及交易数据。
轻节点——非完全验证节点,易部署,只验证区块头(数据摘要)。
首先,确保新区块产生时,该区块中的所有数据确实已发布,使得其他节点可校验。若全节点未发布区块中所有数据,则其他节点无法检测,该区块是否隐藏恶意交易。
也就是说,节点需要获取一定时间内的所有交易数据,并验证,不存在已经确认但未验证的交易数据。这便是通常意义上的数据可用性。
若某个全节点隐瞒一些交易数据,其他全节点在校验后,会拒绝跟随此区块,但仅下载区块头信息的轻节点则无法校验,会继续跟随这条分叉区块,影响安全。
尽管通常区块链会罚没该全节点保证金,但这同样会使质押给该节点的用户受到损失。
且当隐瞒数据的收益,超过罚没成本,节点有动机隐瞒,届时实际受损的,只会是质押用户和该链其他使用者。
另一方面,若全节点部署逐渐中心化,节点间存在串通可能,会危及整条链的安全。
这是为什么数据可用很重要。
数据可用越来越受到关注,一方面因为以太坊 PoS 合并,另一方面则是 Rollup 发展。当前 Rollup 会运行中心化定序器(Sequencer)。
用户在 Rollup 上交易,定序器为交易排序、打包、压缩,发布到以太坊主网,由主网全节点通过欺诈证明(Optimistic)或有效性证明(ZK)验证数据。
只要定序器提交的区块所有数据真实可用,以太坊主网才可据此跟踪、校验、重建 Rollup状态,保证数据真实和用户财产安全。
2)状态爆炸与中心化
状态爆炸是指,以太坊全节点积累的历史和状态数据越来越多,运行全节点需要的存储资源越来越大,运行门槛提高,致使网络节点中心化。
因此,需要某种方式,使全节点在同步以及验证区块数据时,无需下载所有数据,只需要下载区块的部分冗余片段即可。
至此,我们明白了数据可用性很重要。那么,如何避免“公地悲剧”产生?即大家都清楚数据可用的重要性,但仍需要一些切实的利益驱动,让大家使用单独数据可用层。
就像每个人都知道保护环境很重要,但看到路边的垃圾,“我”为什么要把它捡起来?为什么不是别人?“我”把垃圾捡起来,能得到什么好处?
轮到 Celestia 登场了。
什么是Celestia ?
Celestia 为其他 Layer1、Layer2 提供可插拔的数据可用层和共识,基于 Cosmos Tendermint 共识及 Cosmos SDK构建。
Celestia 是 Layer1 协议,兼容 EVM 链及 Cosmos 应用链,未来将支持所有类型的 Rollup,这些链可直接使用 Celestia 作为数据可用层,区块数据将通过 Celestia 存储、调用、校验,再回到自有协议清算。
Celestia 也支持原生Rollup,可直接在其上构建 Layer2,但不支持智能合约,所以无法直接构建 dApp。
Celestia 工作原理
Rollup 通过运行Celestia 节点,接入 Celestia。
Celestia 接收 Rollup 交易信息,通过 Tendermint 共识排序交易。之后,Celestia 不会执行交易,也不会质疑交易有效性,只是将交易进行打包排序、广播。
是的,换句话说,隐瞒交易数据的区块,也可以发布到 Celestia 上。那 Celestia 如何识别呢?
校验通过纠删码(Erasure Coding)和数据可用性抽样(Data Availability Sampling,DAS)完成。
具体来说,原始数据为K(若实际数据大小不足K,则会补充无效数据,使大小等于K),对其进行纠删编码,分成 N 多个小枝干(Chunks),并扩展为 2K 行列大小的矩阵。
可以简单理解为,一个长、宽都为 K 的正方形,面积为 K*K,纠删编码后变为长、宽为 2K,面积为 2K*2K。
若原始数据为 1Mb,对其进行纠删编码,分成若干份,并扩展 4Mb 大小,其中 3Mb 为特殊数据。仅需其中一部分K*K 大小数据,便可恢复或查看全部 2K*2K 数据。
具体的数学计算极其复杂,但得到的结果是,即使恶意出块者隐瞒哪怕 1%交易数据,也会变成隐瞒 50%以上的枝干(Chunks)。
所以,若想使隐瞒生效,就会使数据矩阵发生质的变化,能被轻节点轻易发现。这使得隐瞒数据,有极其大的概率,成为不可能的事件。
全节点可通过欺诈证明,校验数据,跟其他 Layer1 类似。而纠删码关键的作用在于,调动轻节点,参与数据校验。
全节点将区块头发给轻节点,由轻节点进行数据可用性抽样。若数据无隐瞒,则轻节点认可该区块。若数据有缺失,则轻节点会发送给其他全节点。其他全节点会发起欺诈证明。
总结下,
1/ Celestia 使用纠删码,对原始数据编码,将原始数据切成若干小份(Chunks)。(若区块仍有空间,则使用无效数据补足,使得留有空间的区块,便是全节点隐瞒数据的区块)
2/ 将 K*K 大小的原始数据,扩展为2K*2K。因为 K*K 数据已分为若干小份,所以 2K*2K 数据的状态,也是如此,呈若干小份。
3/ 由此得到三个好处:
1)因为数据切成若干小份,使得轻节点也可参与校验。(若数据仍是大份,轻节点受制于硬件,无法参与校验)
2)仅需抽样 K*K 大小数据,可还原全部 2K*2K 数据全貌。轻节点们轮番抽样,直到抽样大小为 K*K,则可通过数据全貌对比,选择是否认可当前区块。
3)使恶意出块者隐瞒哪怕 1%交易数据,也会变成隐瞒 50%以上的枝干(Chunks)。
4/ 全节点可直接通过欺诈证明校验区块数据,与以太坊等其他 Layer1 类似。
5/ 轻节点则可通过数据可用性抽样校验,多个轻节点随意抽样,直到抽取数据面积大小为 K*K。这是 Celestia 的创新之处。
6/ 对于轻节点抽样来说,抽样模型是亚线性的(Sub-linear)。他们仅需下载所需抽样数据量的平方根数量即可。即,若有 10,000个小份Chunks数据需要抽样,仅需要下载并检查其中100个。
因为 100的平方是10,000。
7/ 若轻节点校验的区块数据有隐瞒,可提交给其他全节点,通过欺诈证明,罚没作弊节点保证金。
Celestia 扩容
纠删码和数据可用性抽样,使 Celestia 与其他 Layer1 现有数据可用相比,实现了进一步扩容,提升网络效率。
1/ 采用欺诈证明,默认区块数据可用,保证正常情况下,网络高效运行。
2/ 轻节点越多,网络效率越高。
因为原始数据大小为 K*K,若只有一个轻节点,则需要做 K*K 次抽样。反之,若有 K*K 个轻节点,仅需1次抽样。
3/ 亚线性抽样,使 Celestia可使用大区块。
此外,纠删码的特性,使得万一 Celestia 全节点发生大规模故障,轻节点们手中的若干枝干数据,可恢复交易数据,确保数据仍可访问。
Quantum Gravity Bridge
Quantum Gravity Bridge 是 Celestia 与 以太坊 Layer2 的中继桥,搭建在以太坊上,Layer2 可以通过 Quantum Gravity Bridge 将交易数据发布到Celestia,使用数据可用服务,通过智能合约,校验 Celestia 上的数据。
Celestium
Celestium 是以太坊 Layer2,使用Celestia 作为数据可用层,用以太坊作为结算和共识层。
目前处于开发阶段。
为什么要用 Celestia ?
还记得我们之前提到的“公地悲剧”吗?即 Rollup 为什么要使用 Celestia 作为数据层?
1/ 使用 Celestia 成本低
以太坊 Rollup 现有成本由两部分构成:
1)Rollup 自身Gas成本。即用户交互,定序器进行排序,状态转换时收费的费用。
2)Rollup 将区块提交到以太坊,花费的Gas。
Rollup 定序器打包、压缩后,会在以太坊上创建一个区块。目前存储为 Calldata形式,成本为每字节 16 Gas。
以太坊和 Rollup 各自根据拥堵情况不同,收取的 Gas也不同。定序器在批量处理用户交互内容前,会尽力预测以太坊 Gas 费用,并向用户收取。
也就是说,Rollup 上的 Gas 之所以便宜,是因为将用户若干笔交互打包到一起,相当于大家均摊了 Gas。
当市场处于冷淡期,以太坊上交互较少,大家需要均摊的 Gas 也会减少,Rollup 只会在正常 Gas 上收取很小的利润。一旦,以太坊上 Gas 飙升,Rollup 上的Gas 也会上涨。
所以,Rollup 本质上还是在跟以太坊主网的 dApp 和其他 Rollup 抢夺区块空间。
另一方面,Rollup 自身交互火爆,也会拉高 Gas。比如前不久的 Aribitrum Odyssey。
总的来说,Rollup 当前成本模式为线性,成本会随以太坊交互需求情况,上升会下降。
而 Celestia 的成本则是亚线性,成本最终会趋近于一个值,一个远低于以太坊现有成本的值。
在 EIP-4844 升级部署后,Rollup数据存储会从 Calldata 变为 Blob,费用降低,但仍旧比 Celestia 贵。
2/ 自主 Rollup(Self Sovereignty)
自主 Rollup,实质是给了 Rollup 自主分叉的权力。Celestia 原生 Rollup 是拥有自主的链,治理及分叉升级不受Celestia 限制。
分叉为什么重要?
通常区块链需要通过硬分叉升级,而分叉会影响削弱安全性。原因是,若有人想要更改或升级区块链代码,需要其他参与者同意且更改。
如果想对整条链进行升级,需要分叉整个共识层,就像以太坊 PoS 合并不得不采用算力炸弹,迫使节点从PoW 迁移到 PoS一样。所有节点都参与升级,才不会丢失任何安全性。
Celestia 则会为 Rollup提供分叉能力,因为所有分叉使用相同的数据可用层。
此外,自主 Rollup 也会带来更多灵活性。以太坊 Rollup 受限于以太主网处理欺诈证明或有效性证明的能力。
自主 Rollup 则不依赖特定的虚拟机,如 EVM。所以,自主 Rollup 有更多的选择性,比如成为 Solana VM 等等。不过,采用不同 VM 虚拟机,互操作性会受限。
另一方面,目前 Rollup 对成为自主 Rollup 的需求可能并不大,
A. 受中心化资产限制。比如 USDC、USDT 官方不支持新分叉链。
B. 受 dApp 迁移限制。如,Uniswap 等 dApp仍留在之前的链上,且用户不肯放弃原有习惯,未迁移到新分叉链上。
3/ 信任最小化桥(trust minimized bridges)与共享安全
Celestia 官方文章,将跨链大致分为两类:
A. 可信跨链桥,需要信任第三方,比如中继链节点。其可靠性建立在第三方节点共识之上,即节点多数是诚实的。
B. 信任最小化跨链桥,类似以太坊和 Rollup 的关系,靠欺诈证明(Optimistic)和有效性证明(ZK),校验 Rollup 交易数据有效性。
Celestia 提出一个概念——集群(Clusters),即一组相互通信的链,通过信任最小化桥跨链,每条链都可以验证其他链的状态。
通常,集群会遇到两个限制因素,
A. 集群内所有链需要了解彼此的执行环境。但这很难,如 ZK Rollup之间需要了解彼此的 ZK 系统。但 zk-SNARK 和zk-STARK 是不同的 ZK 系统。所以,ZK Rollup 之间相对独立。
B. 为保持集群内所有链,使用信任最小化状态验证,每条链必须以信任最小化方式,验证该集群内,其他链区块数据可用性。
而使用 Celestia 作为数据可用层集群中的所有链,都可以检查彼此的块是否包含在 Celestia链中。
不过,略微尴尬的是,Celestia 集群概念中,Optimistic Rollup 和 ZK Rollup 属于两个集群。
也就是 Optimistic Rollup 间,如 Optimism、Aribitrum 同属一个集群,他俩与 zkSync 则不是。
且由于 ZK Rollup 方案差异,zkSync和 StarkNet 甚至也不属于同一集群。所以,Celestia仍不能解决 Rollup 间相对独立,缺乏原子级别互操作性问题。
Optimint(Optimistic Tendermint)
Optimint 是 Tendermint共识替代品,允许开发者构建基于 Cosmos 的 Rollup,同时使用Celestia 作为共识和数据可用层。
目标是,让基于 Cosmos 的 Rollup形成集群。
Celestia 现有生态项目
Fuel
Fuel 是建立在 Celestia 的模块化执行层,是以太坊Optimistic Rollup Layer2。
Fuel 构建了 FuelVM,一个为智能合约专门构建的定制虚拟机,可处理并行交易,使用UTXO 账户。
Cevmos
Cevmos 是 Cosmos EVM应用链和 Celestia 共同开发的 Rollup
Cevmos 使用 Optimint 构建,由于Evmos 本身就是一个 Rollup,所以 Cevmos 实际是 Rollup 中的 Rollup(递归 Rollup)。
以太坊上已有的 Rollup 合约与应用,可以重新在 Cevmos 上部署,使用其为结算层,使用 Celestia 作为数据层。
每个构建Rollup 都会有与 Cevmos Rollup 双向信任最小化的桥,形成集群。
dYmension
dYmension 是基于 Cosmos构建的自主 Rollup,dYmension Hub 提供结算,且提供开发套件RDK、链间通讯 IRC,方便专注 Rollup 的应用 rollApp 开发。
Eclipse
Eclipse 是基于 Cosmos 的自主 Rollup,使用 Solana VM 作为结算和执行层,Celestia 作为数据层。
项目进展
目前测试网已上线。奖励版测试网将于2023年第一季度发布。现在可以去官方Discord 领取水龙头测试币。主网预计2023年第二季度发布。
融资情况
2021年3月,完成150万美元种子轮融资,参与者包括 Binance Labs、Interchain Foundation、Maven 11、KR1 等等。
2021年12月,完成273万美元融资,参投信息未公开。
2022年10月,完成5500万美元融资,参与者包括Bain Capital、Polychain Capital、Placeholder、Galaxy、Delphi Digital、Blockchain Capital、Spartan Group、FTX Ventures、Jump Crypto 等等。
团队情况
CEO Mustafa Al-Bassam,UCL 区块链扩容领域博士,Chainspace(被Facebook收购)联合创始人
CTO Ismail Khoffi,前 Tendermint 和 Interchain 基金会的高级工程师
CRO John Adler,Optimistic Rollups创建者,前 ConsenSys 可扩展性研究员
COO Nick White,Harmony联合创始人,斯坦福大学学士和硕士。
顾问团队:
Zaki Manian —— IBC 共同创建者和早期 Cosmos贡献者
Ethan Buchman —— Tendermint 联合创始人和 Cosmos 联合创始人
Morgan Beller —— NFX 普通合伙人,Diem≋(又名Libra) 联合创始人
Nick White —— Harmony 联合创始人
James Prestwich —— Summa(被Celo收购) 创始人
George Danezis —— 伦敦大学学院的安全和隐私工程教授
代币经济模型
从已公布的信息来看,Celestia 原生代币将作为 Gas,协议收入来源是 Rollup 交易费用。且代币包含类似 EIP-1559 的销毁机制。
目前,Celestia 一级市场估值 10亿美元。
竞品
Polygon Avail
Avail 是 Polygon 推出的数据可用性方案。实现思路与Celestia 相同,不同点在于,Celestia 使用纠删码+ 欺诈证明,Avail 使用纠删码 + KZG 多项式承诺(KZG Polynomial Commitment)。
Celestia 是将K*K 数据扩展成2K*2K 正方形,Avail 是按行扩展,将 n 行 m 列矩阵,扩展成 2n 行,并为每行计算KZG 多项式承诺。
轻节点使用数据可用性抽样 DAS,用密码学方式核对 KZG 多项式和证明就可以,不需要下载原始数据。
相比之下,Avail 实现难度更大,在完全实现的情况下,结果也相对更可靠。不过目前,两个项目都在开发中,很难判断竞争情况。
以太坊 Danksharding
Danksharding 是以太坊官方计划推出的独立数据可用层。与 Avail 类似,Danksharding 使用纠删码 + KZG多项式承诺,数据格式则会使用 Blob 替代现有的 calldata。
在 Danksharding 部署前,有两个提案作为过渡。
EIP-4488 直接硬性将 calldata gas 从每字节 16减少到 3,还规定了 calldata 占用上限 1.4Mb。
EIP-4844 引入 Blob(blob-carrying transactions,blob: binary large objects)代替 calldata。Blob 是一种新交易类型,包含额外的存储空间,成本比 calldata 低得多。
Blob 存储在以太坊信标链上,与之后的分片兼容,使用 KZG 承诺哈希值,用于校验数据,Rollup 无需访问数据,校验 KZG 承诺即可。
KZG 承诺是绑定的,计算完成后无法更改。所以,本质上,Avail 和 Danksharding 基于密码学的 KZG 多项式承诺校验数据,而 Celestia 则基于经济学的欺诈证明方式。
理论上,KZG 多项式承诺安全性要优于欺诈证明,同时,要求带宽更小,抽样所需计算量更小。未来,以太坊也考虑引入抗量子攻击的验证方式,如zk-SRARK。
风险
1)中心化
尽管纠删码让轻节点也可参与数据校验,但 Celestia 数据存储仍旧需要搭建存储全节点。
要求内存 8GB,CPU 4核,剩余存储空间至少250GB,上行带宽大于 100Mb/s,下行带宽大于 1Gb/s。配置要求很高,需要搭建在云服务器上。
2)以太坊 Danksharding 的竞争
3)“脏账本”问题
该问题是斯坦福研究小组提出的。Celestia 采用欺诈证明,默认区块数据可用,保证正常情况下,网络高效运行,所以是“脏”账本,因为数据有问题的区块,仍会被Celestia 接受,等待欺诈证明的挑战。
假设,某挑战者想证明交易 Tc 是一笔双花,并提交证据说明,该钱已用于交易Tb。但如果存在交易 Ta 能证明 Tb是无效的呢?
若 Tb 无效,则 Tc 双花可能有效。
在某些情况下,“脏账本”无法获知交易真实状态,除非重放 Celestia 历史每一笔交易,直到创世区块。
这意味着,挑战者和被挑战者,都必须是全存储节点。该问题发布在 Celestia 官方Youtube 账号上,目前团队在解决该问题,比如引入弱主观性假设。
弱主观性假设是解决问题的条件。比如,如何买好吃的柚子?这个问题中的主观性,是按主观感觉挑选。客观性是按照柚子重力与体积之比,判断柚子水份情况。
弱主观性则是,双手分别捧起体积差不多的柚子,比较重量。比较几个之后,选择最重的。
回到 Celestia “脏账本”问题,可以要求要求挑战者和被挑战者者保留 3 周数据,但这对节点来说,同样是负担。
“脏账本”问题,其实是基于经济学模型保障安全的欺诈证明,面对的本质问题。但欺诈证明的部署难度,小于 KZG 多项式承诺,理论上 Celestia 开发进度比 Polygon Avail 和以太坊 Danksharding 更快。
所以,Celestia 如何能把握窗口期,在 Polygon Avail 和 Danksharding 之前形成规模效应,吸引大量流动性,尤其是原生Rollup 的流动性,这点将至关重要。
SOL
UNI
ATOM
戈多Godot
--
全局流动性的威力,被低估的链上衍生品交易平台Gmx(GMX)项目分析推特@godotsancho,本文写于2022年7月23日 一、项目介绍 Gmx是支持现货和永续合约的DEX平台,当前主要业务聚焦于衍生品交易。前身为BSC链上项目Gambit,后迁移至Arbitrum,并支持Avalanche(AVAX)链。 区别于dYdX、Perpetual Protocol,Gmx没有采用订单薄或AMM模式,而是采用了全局流动性模式。 所谓“全局流动性”指的是,当用户向Gmx提供流动性时,不再是按1:1比例提供两种代币,如ETH/USDT。而是直接购买并质押Gmx协议发行的流动性代币GLP。质押GLP,即参与了Gmx做市。 GLP本身代表了一揽子代币集合,权重如下图所示: 事实上,交易用户开多ETH时,相当于向GLP池借出ETH资产。开空则相当于借出稳定币资产。也就是说,Gmx开仓用户的对手盘,实际是质押了GLP的用户。 所以,GLP的价格,会随着交易用户盈利或亏损,而下跌或上涨。 全局流动性的优势是,深度可整合,理论上只要GLP池有剩余资产,则深度无限大。其次,交易手续费低且无滑点。 用户可在Gmx平台内,直接买入或卖出GLP。GLP背后有真实资产支持,用户也可以选择用GLP赎回其他资产。 质押GLP,可分享平台70%手续费收入,当前APR为30.9%。 对交易用户而言,存入保证金之后,即可开仓。Gmx目前支持ETH、BTC、LINK、UNI四个品种,支持用户使用ETH、wETH、BTC、LINK、UNI、USDC、USDT、DAI、FRAX、MIN开仓上述四个品种,最高支持30倍杠杆。 此外,应注意的是,GLP所代表的资产有目标比重,当实际比重偏离目标比重过大,用该资产开仓手续费也会提高,以此来修正资产比重。 二、项目数据情况 如上图所示,Gmx在Arbitrum、Avalanche累积交易额超450亿美元,手续费总收入超6000万美元,总用户数超48000。在Arbitrum网络未平仓数量超1400万美元。 24小时总交易额超1.1亿美元,近2日手续费收入超31万美元。 根据Delphi数据显示,从去年8月21日以来,GLP池不断上涨。 根据tokenterminal数据,Gmx 30日协议收入,排名第14,超越了Sushi、Avalanche这类老牌DeFi及公链,且180日收入增长率达到183.1%。 交易量数据来源Tokeninsight、dYdX、Gmx 上图数据中,Gmx交易量为现货及衍生品交易量加总,其余平台只记录了衍生品交易量。 若横向对比,会发现,目前Gmx交易量相当于Kraken等二线交易平台的衍生品交易量,距离币安等一线平台,以及衍生品DEX龙头dYdX有不小差距。 三、稳定币交易 全局流动性GLP带来了一个意外的好处,就是稳定币兑换滑点低。如图所示,Gmx在大额稳定币滑点方面,不仅小于Traderjoe,甚至还超越了Avax生态专门做稳定币兑换的项目Platypus。 四、代币经济模型 GMX发行总量1325万枚,当前流通量772.17万枚,质押中的代币为662.7万枚,质押比例85.8%,实际流动量为109.48万枚。当前币价17.24美元,实际流通盘1887.43万美元,FDV为2.28亿美元。 600万枚来自XVIX和Gambit(GMX的前身)迁移 200万与ETH在Uniswap组成LP作为初始流动性 200万用于GMX的质押奖励 200万由底价基金管理(用于支持GMX价格) 100万用于营销、合作和社区 25万在2年内线性分配给团队 GMX使用场景: 1、参与协议治理 2、质押GMX,分享平台30%手续费收入,以ETH或AVAX形式发放 3、质押获得GMX奖励 4、获得Multiplier Points(乘点) 底价基金: 1、Uniswap上GMX/ETH交易对流动性,由Gmx协议添加。该交易对产生的手续费收入,将转换为GLP,并存入Gmx作为底价基金。 2、Olympus bonds销售收入50%,也会存入底价基金,另外50%则用于市场宣传。 底价基金用于维持GLP流动性,或回购销毁GMX,保证GMX价值。 GMX的质押 如图所示,用户质押GMX后,会收到以下奖励: 1、手续费收入,以ETH或AVAX形式发放 2、GMX奖励 3、esGMX,即代表托管的GMX 4、Multiplier Points(乘点) 5、用户可将乘点质押,得到Staked Multiplier Points质押的乘点 1.esGMX esGMX是Escrowed GMX的缩写,意为托管的GMX。esGMX不可转账,有两种使用方式:Stake和Vest。 Stake esGMX与Stake GMX相同,也能分享平台手续费收益。Vest则是将esGMX转化为GMX,需要等待1年时间,在1年里每秒esGMX都会按比例转化为GMX。在Vset过程中,用户仍需继续质押GMX或GLP。 2. Multiplier Points(乘点) 乘点MP主要目的是奖励长期持有者。当用户质押GMX时,每秒都会获得MP乘点数。质押1000个GMX一年,可获得1000个乘点数。 用户可以继续质押乘点数,每个乘点数可获得与GMX相同的质押收益。一旦用户取消质押GMX,则会销毁相应比例的乘点数。 也就是说,当某个用户初始质押GMX时,可以获得esGMX和乘点MP。可以将esGMX和MP再质押以提高APR。质押GMX数量越大,时间越长,可以分享的协议收入比例就越高。 反之,一旦用户取消质押GMX,则esGMX和MP的收益,也会受到影响。 五、Gmx的未来:X4 Gmx创始人X是连续创业者,他此前的项目被称作X1、X2、X3。 X1是XVIX、X2是杠杆代币、X3是Gambit,GMX是Gambit的改进版。X4将围绕Gmx设计。 X4是一个自定义AMM,允许资金池创建者,通过智能合约,定义任何在添加、移除流动性,或用户购买、出售代币时,调用的合约或功能。例如, 动态费用(Dynamic Fees)。资金池创建者,可设定手续费,可对买入和卖出行为设置不同手续费,还可以指定Token作为Gas等等。 可访问所有代币(Access to all Tokens)。可交易如GLP这类代表拟合资产的特殊代币。 更强的可组合性(Greater Composability)。如将LP Token作为可交易Token,在购买时Mint,在卖出时被赎回。 聚合交易(Aggregation)。类似1inch一样,聚合多个DEX流动性。 也就是说,未来Gmx会变成一个现货聚合DEX+衍生品DEX平台,甚至可以诞生ICO、LBP等场景。 六、GMX代币价值及潜在风险分析 1/Gmx所在市场有多大?当前市场情况如何? 根据TokenInsight和Coinmarketcap数据,截至7月2日8时(UTC),全球加密资产总市值8640.1亿美元,总交易量2250.8亿美元,衍生品成交量1228.8亿美元占比54.6%,DEX未平仓价值2.8596亿美元,仅占比1.01%。 (1)交易是加密市场最主要的活动。该赛道广阔前景与激烈竞争并存。 (2)衍生品交易总额逐渐超过现货,与传统金融市场一致。随着加密市场发展,预计衍生品交易会进一步增长,且交易量成倍于现货交易。 (3)24小时交易量,DEX占比仅1.19%。但就具体项目而言,dYdX已具备一定体量,24小时交易量及未平仓头寸,均已超过Bitfinex与Kraken等主流交易平台。Gmx 24小时交易量基本与Bitfinex、Kraken持平,未平仓头寸则逊于二者。 综上,Gmx所处赛道行业量级最大,竞争也最激烈。目前项目竞争力已初步显现,需重点分析关注项目竞争力能否持续,以及可替代性有多强。 2/该项目核心竞争力是什么?是否产生了壁垒?竞对情况? 宏观叙述: 作为交易平台,竞争力体现在资金安全,交易系统稳定,交易体验良好,包括深度好、滑点低、手续费少、挂单方式多、操作便捷等方面,以及可交易资产丰富等方面。 另一方面,交易平台更容易出现马太效应。深度越好、滑点越少,交易用户就越多,交易量就越大,继而深度和滑点会更优化,形成正向循环。同时,可吸引的做市商增多,上线资产数量也会增加。 平台收入增多,在安全、系统研发方面投入加大,安全性、保障性就越强。 DEX与CEX的比较优势: 币安等主流CEX平台,相对于dYdX、Gmx等DEX而言,首先,具备OTC业务,是更上游的资金入口,用户法币入金后,可直接在CEX平台交易,更为便捷。 其次,先发优势明显,深度、滑点、资产种类、挂单方式足以满足大多数用户需求。 更为重要的是,作为中心化平台,在出现资金或交易问题后,用户可直接联系客服人员处理,且中心化平台在稳定且持续的现金流收益的基础上,有条件赔付用户。 而DEX相比CEX的优势,首先是资金所有权。大资金担心CEX平台限制提现,或者进行所谓“定点爆破”价格操控,出现资金安全问题。 其次,交易算法优势,如全局流动性无滑点、AMM或原生代币激励等。 第三,基于代币经济模型,如原生代币激励等,吸引用户交易。 Gmx核心竞争力: 单就Gmx而言,其核心竞争力主要体现在资金所有权,以及全局流动性模式带来的大额无滑点优势。 Gmx当前在无滑点(实际滑点0.3%)的情况下,可容纳ETH最大仓位约为4100万美元,BTC最大仓位约为2500万美元,LINK最大仓位为30万美元,UNI最大仓位为5万美元。 以ETH交易对为例,dYdX在容纳400万USDT深度后,交易滑点仍能小于1%,超过400万USDT,交易滑点大于1%,并随着资金量增加逐步放大。 Perpetual在容纳10万USD深度时,滑点已达到5.5%。 以LINK为例,dYdX容纳20万USDT时,滑点达到50.78%。 Perpetual在容纳10万USD深度时,滑点已达到10.6%。 另一方面,由于全局流动性模式,实际上是在向GLP借币,所以交易者除了支付交易手续费外,还要额外按小时支付借币费用。 Gmx更适合大额、短线交易。这也是前文Gmx交易量基本与Kraken、Bitfinex持平,但未平仓头寸差距较大的原因。 4/项目未来方向?业务可拓展性如何?业务拓展能否扩大市值? 从宏观来看: 加密市场交易仍有发展空间。当前,若以每盎司1800美元价格计算,世界黄金总价值约为10.87万亿美元。而当前加密市场总市值为8650.7亿美元。 关于Gmx: Gmx目前可以预见的,有三个扩展方向: (1)衍生品交易上线更多品种,目前仅支持支持BTC、ETH、LINK、UNI四个品种。 (2)现货Swap交易。 (3)基于全局流动性无滑点特点,将大额稳定币兑换与其他DEX组合,提供基础流动性。 基于Gmx代币经济模型,上述业务拓展,交易手续费收入提升,会使GMX、GLP质押APR提高,激励更多锁仓。GLP锁仓提高,会使可大额开仓价值进一步提升,形成正向循环。 5/团队情况? 项目创始人推特昵称X(https://twitter.com/xdev_10),连续创业者,曾创建过XVIX、杠杆代币、Gambit、GMX项目。其他资料未知。 6/社媒情况? 7/潜在替代者是? 更好的做市方式 8/壁垒在什么情况下能被打破?如何判断壁垒被打破?指标是? (1)出现安全问题 (2)GLP流动性被抽走 (3)被替代 (1)GLP总量减少、价格崩盘 (2)交易量骤降 9/代币抛售和购买的人和动力分别是什么?对代币购买的需求能否持续?能否抵消代币抛售?业务拓展能否增加代币需求? 根据GMX代币模型: 600万枚来自XVIX和Gambit(GMX的前身)迁移 200万与ETH在Uniswap组成LP作为初始流动性 200万用于GMX的质押奖励 200万由底价基金管理(用于支持GMX价格) 100万用于营销、合作和社区 25万在2年内线性分配给团队 考虑到85%的质押率及200万底价基金管理的GMX,GMX抛压主要来自于质押及流动性奖励。 GMX买入动力主要来源于质押APR及对协议未来发展的预期,而质押APR除了GMX增发奖励外,还会以ETH或AVAX形式分享协议手续费。目前,GMX APR 22.75%,用户还可以继续Compound收益,进一步增加APR。 上图绿色曲线代表对USD的价格,黄色代表对BTC的价格。不难看出,GMX代币表现要比DYDX好太多,尤其在最近半个月内跑赢BTC。 原因是,DYDX目前无法有效捕获协议收入,且用代币奖励做市商及用户提供流动性,增加了抛压。而GMX代币经济模型相比之下要好很多,不仅能捕获协议收入价值,且未用代币本身来激励流动性,并且还有大量锁仓场景。 85%以上的质押率,也说明了GMX代币模型的成功。 且从数据来看,尽管dYdX用户净值较Gmx高,但受代币经济模型,DYDX流通市值跟GMX几乎一致。 10/风险? 系统性风险: (1)安全问题 (2)可替代性风险 推特@godotsancho https://twitter.com/GodotSancho
全局流动性的威力,被低估的链上衍生品交易平台Gmx(GMX)项目分析
推特@godotsancho,本文写于2022年7月23日
一、项目介绍
Gmx是支持现货和永续合约的DEX平台,当前主要业务聚焦于衍生品交易。前身为BSC链上项目Gambit,后迁移至Arbitrum,并支持Avalanche(AVAX)链。
区别于dYdX、Perpetual Protocol,Gmx没有采用订单薄或AMM模式,而是采用了全局流动性模式。
所谓“全局流动性”指的是,当用户向Gmx提供流动性时,不再是按1:1比例提供两种代币,如ETH/USDT。而是直接购买并质押Gmx协议发行的流动性代币GLP。质押GLP,即参与了Gmx做市。
GLP本身代表了一揽子代币集合,权重如下图所示:
事实上,交易用户开多ETH时,相当于向GLP池借出ETH资产。开空则相当于借出稳定币资产。也就是说,Gmx开仓用户的对手盘,实际是质押了GLP的用户。
所以,GLP的价格,会随着交易用户盈利或亏损,而下跌或上涨。
全局流动性的优势是,深度可整合,理论上只要GLP池有剩余资产,则深度无限大。其次,交易手续费低且无滑点。
用户可在Gmx平台内,直接买入或卖出GLP。GLP背后有真实资产支持,用户也可以选择用GLP赎回其他资产。
质押GLP,可分享平台70%手续费收入,当前APR为30.9%。
对交易用户而言,存入保证金之后,即可开仓。Gmx目前支持ETH、BTC、LINK、UNI四个品种,支持用户使用ETH、wETH、BTC、LINK、UNI、USDC、USDT、DAI、FRAX、MIN开仓上述四个品种,最高支持30倍杠杆。
此外,应注意的是,GLP所代表的资产有目标比重,当实际比重偏离目标比重过大,用该资产开仓手续费也会提高,以此来修正资产比重。
二、项目数据情况
如上图所示,Gmx在Arbitrum、Avalanche累积交易额超450亿美元,手续费总收入超6000万美元,总用户数超48000。在Arbitrum网络未平仓数量超1400万美元。
24小时总交易额超1.1亿美元,近2日手续费收入超31万美元。
根据Delphi数据显示,从去年8月21日以来,GLP池不断上涨。
根据tokenterminal数据,Gmx 30日协议收入,排名第14,超越了Sushi、Avalanche这类老牌DeFi及公链,且180日收入增长率达到183.1%。
交易量数据来源Tokeninsight、dYdX、Gmx
上图数据中,Gmx交易量为现货及衍生品交易量加总,其余平台只记录了衍生品交易量。
若横向对比,会发现,目前Gmx交易量相当于Kraken等二线交易平台的衍生品交易量,距离币安等一线平台,以及衍生品DEX龙头dYdX有不小差距。
三、稳定币交易
全局流动性GLP带来了一个意外的好处,就是稳定币兑换滑点低。如图所示,Gmx在大额稳定币滑点方面,不仅小于Traderjoe,甚至还超越了Avax生态专门做稳定币兑换的项目Platypus。
四、代币经济模型
GMX发行总量1325万枚,当前流通量772.17万枚,质押中的代币为662.7万枚,质押比例85.8%,实际流动量为109.48万枚。当前币价17.24美元,实际流通盘1887.43万美元,FDV为2.28亿美元。
600万枚来自XVIX和Gambit(GMX的前身)迁移
200万与ETH在Uniswap组成LP作为初始流动性
200万用于GMX的质押奖励
200万由底价基金管理(用于支持GMX价格)
100万用于营销、合作和社区
25万在2年内线性分配给团队
GMX使用场景:
1、参与协议治理
2、质押GMX,分享平台30%手续费收入,以ETH或AVAX形式发放
3、质押获得GMX奖励
4、获得Multiplier Points(乘点)
底价基金:
1、Uniswap上GMX/ETH交易对流动性,由Gmx协议添加。该交易对产生的手续费收入,将转换为GLP,并存入Gmx作为底价基金。
2、Olympus bonds销售收入50%,也会存入底价基金,另外50%则用于市场宣传。
底价基金用于维持GLP流动性,或回购销毁GMX,保证GMX价值。
GMX的质押
如图所示,用户质押GMX后,会收到以下奖励:
1、手续费收入,以ETH或AVAX形式发放
2、GMX奖励
3、esGMX,即代表托管的GMX
4、Multiplier Points(乘点)
5、用户可将乘点质押,得到Staked Multiplier Points质押的乘点
1.esGMX
esGMX是Escrowed GMX的缩写,意为托管的GMX。esGMX不可转账,有两种使用方式:Stake和Vest。
Stake esGMX与Stake GMX相同,也能分享平台手续费收益。Vest则是将esGMX转化为GMX,需要等待1年时间,在1年里每秒esGMX都会按比例转化为GMX。在Vset过程中,用户仍需继续质押GMX或GLP。
2. Multiplier Points(乘点)
乘点MP主要目的是奖励长期持有者。当用户质押GMX时,每秒都会获得MP乘点数。质押1000个GMX一年,可获得1000个乘点数。
用户可以继续质押乘点数,每个乘点数可获得与GMX相同的质押收益。一旦用户取消质押GMX,则会销毁相应比例的乘点数。
也就是说,当某个用户初始质押GMX时,可以获得esGMX和乘点MP。可以将esGMX和MP再质押以提高APR。质押GMX数量越大,时间越长,可以分享的协议收入比例就越高。
反之,一旦用户取消质押GMX,则esGMX和MP的收益,也会受到影响。
五、Gmx的未来:X4
Gmx创始人X是连续创业者,他此前的项目被称作X1、X2、X3。
X1是XVIX、X2是杠杆代币、X3是Gambit,GMX是Gambit的改进版。X4将围绕Gmx设计。
X4是一个自定义AMM,允许资金池创建者,通过智能合约,定义任何在添加、移除流动性,或用户购买、出售代币时,调用的合约或功能。例如,
动态费用(Dynamic Fees)。资金池创建者,可设定手续费,可对买入和卖出行为设置不同手续费,还可以指定Token作为Gas等等。
可访问所有代币(Access to all Tokens)。可交易如GLP这类代表拟合资产的特殊代币。
更强的可组合性(Greater Composability)。如将LP Token作为可交易Token,在购买时Mint,在卖出时被赎回。
聚合交易(Aggregation)。类似1inch一样,聚合多个DEX流动性。
也就是说,未来Gmx会变成一个现货聚合DEX+衍生品DEX平台,甚至可以诞生ICO、LBP等场景。
六、GMX代币价值及潜在风险分析
1/Gmx所在市场有多大?当前市场情况如何?
根据TokenInsight和Coinmarketcap数据,截至7月2日8时(UTC),全球加密资产总市值8640.1亿美元,总交易量2250.8亿美元,衍生品成交量1228.8亿美元占比54.6%,DEX未平仓价值2.8596亿美元,仅占比1.01%。
(1)交易是加密市场最主要的活动。该赛道广阔前景与激烈竞争并存。
(2)衍生品交易总额逐渐超过现货,与传统金融市场一致。随着加密市场发展,预计衍生品交易会进一步增长,且交易量成倍于现货交易。
(3)24小时交易量,DEX占比仅1.19%。但就具体项目而言,dYdX已具备一定体量,24小时交易量及未平仓头寸,均已超过Bitfinex与Kraken等主流交易平台。Gmx 24小时交易量基本与Bitfinex、Kraken持平,未平仓头寸则逊于二者。
综上,Gmx所处赛道行业量级最大,竞争也最激烈。目前项目竞争力已初步显现,需重点分析关注项目竞争力能否持续,以及可替代性有多强。
2/该项目核心竞争力是什么?是否产生了壁垒?竞对情况?
宏观叙述:
作为交易平台,竞争力体现在资金安全,交易系统稳定,交易体验良好,包括深度好、滑点低、手续费少、挂单方式多、操作便捷等方面,以及可交易资产丰富等方面。
另一方面,交易平台更容易出现马太效应。深度越好、滑点越少,交易用户就越多,交易量就越大,继而深度和滑点会更优化,形成正向循环。同时,可吸引的做市商增多,上线资产数量也会增加。
平台收入增多,在安全、系统研发方面投入加大,安全性、保障性就越强。
DEX与CEX的比较优势:
币安等主流CEX平台,相对于dYdX、Gmx等DEX而言,首先,具备OTC业务,是更上游的资金入口,用户法币入金后,可直接在CEX平台交易,更为便捷。
其次,先发优势明显,深度、滑点、资产种类、挂单方式足以满足大多数用户需求。
更为重要的是,作为中心化平台,在出现资金或交易问题后,用户可直接联系客服人员处理,且中心化平台在稳定且持续的现金流收益的基础上,有条件赔付用户。
而DEX相比CEX的优势,首先是资金所有权。大资金担心CEX平台限制提现,或者进行所谓“定点爆破”价格操控,出现资金安全问题。
其次,交易算法优势,如全局流动性无滑点、AMM或原生代币激励等。
第三,基于代币经济模型,如原生代币激励等,吸引用户交易。
Gmx核心竞争力:
单就Gmx而言,其核心竞争力主要体现在资金所有权,以及全局流动性模式带来的大额无滑点优势。
Gmx当前在无滑点(实际滑点0.3%)的情况下,可容纳ETH最大仓位约为4100万美元,BTC最大仓位约为2500万美元,LINK最大仓位为30万美元,UNI最大仓位为5万美元。
以ETH交易对为例,dYdX在容纳400万USDT深度后,交易滑点仍能小于1%,超过400万USDT,交易滑点大于1%,并随着资金量增加逐步放大。
Perpetual在容纳10万USD深度时,滑点已达到5.5%。
以LINK为例,dYdX容纳20万USDT时,滑点达到50.78%。
Perpetual在容纳10万USD深度时,滑点已达到10.6%。
另一方面,由于全局流动性模式,实际上是在向GLP借币,所以交易者除了支付交易手续费外,还要额外按小时支付借币费用。
Gmx更适合大额、短线交易。这也是前文Gmx交易量基本与Kraken、Bitfinex持平,但未平仓头寸差距较大的原因。
4/项目未来方向?业务可拓展性如何?业务拓展能否扩大市值?
从宏观来看:
加密市场交易仍有发展空间。当前,若以每盎司1800美元价格计算,世界黄金总价值约为10.87万亿美元。而当前加密市场总市值为8650.7亿美元。
关于Gmx:
Gmx目前可以预见的,有三个扩展方向:
(1)衍生品交易上线更多品种,目前仅支持支持BTC、ETH、LINK、UNI四个品种。
(2)现货Swap交易。
(3)基于全局流动性无滑点特点,将大额稳定币兑换与其他DEX组合,提供基础流动性。
基于Gmx代币经济模型,上述业务拓展,交易手续费收入提升,会使GMX、GLP质押APR提高,激励更多锁仓。GLP锁仓提高,会使可大额开仓价值进一步提升,形成正向循环。
5/团队情况?
项目创始人推特昵称X(https://twitter.com/xdev_10),连续创业者,曾创建过XVIX、杠杆代币、Gambit、GMX项目。其他资料未知。
6/社媒情况?
7/潜在替代者是?
更好的做市方式
8/壁垒在什么情况下能被打破?如何判断壁垒被打破?指标是?
(1)出现安全问题
(2)GLP流动性被抽走
(3)被替代
(1)GLP总量减少、价格崩盘
(2)交易量骤降
9/代币抛售和购买的人和动力分别是什么?对代币购买的需求能否持续?能否抵消代币抛售?业务拓展能否增加代币需求?
根据GMX代币模型:
600万枚来自XVIX和Gambit(GMX的前身)迁移
200万与ETH在Uniswap组成LP作为初始流动性
200万用于GMX的质押奖励
200万由底价基金管理(用于支持GMX价格)
100万用于营销、合作和社区
25万在2年内线性分配给团队
考虑到85%的质押率及200万底价基金管理的GMX,GMX抛压主要来自于质押及流动性奖励。
GMX买入动力主要来源于质押APR及对协议未来发展的预期,而质押APR除了GMX增发奖励外,还会以ETH或AVAX形式分享协议手续费。目前,GMX APR 22.75%,用户还可以继续Compound收益,进一步增加APR。
上图绿色曲线代表对USD的价格,黄色代表对BTC的价格。不难看出,GMX代币表现要比DYDX好太多,尤其在最近半个月内跑赢BTC。
原因是,DYDX目前无法有效捕获协议收入,且用代币奖励做市商及用户提供流动性,增加了抛压。而GMX代币经济模型相比之下要好很多,不仅能捕获协议收入价值,且未用代币本身来激励流动性,并且还有大量锁仓场景。
85%以上的质押率,也说明了GMX代币模型的成功。
且从数据来看,尽管dYdX用户净值较Gmx高,但受代币经济模型,DYDX流通市值跟GMX几乎一致。
10/风险?
系统性风险:
(1)安全问题
(2)可替代性风险
推特@godotsancho
https://twitter.com/GodotSancho
BTC
ETH
UNI
戈多Godot
--
模块化项目 #Celestia 学习笔记 Part:1/ 什么是模块化? 模块化本质是要打破“不可能三角”,在提升性能的同时,不增加节点硬件成本和负担,避免造成中心化。 为此,将Layer1协议通常的四层: 1)共识层 2)结算层 3)数据层 4)执行层 进行拆分,以达到目的。 2/ 什么是 #Celestia ? Celestia 将数据层单拆出来,基于Cosmos构建,仅提供共识和可插拔的数据可用服务。 商业模式toB,Layer1和Layer2可使用Celestia服务。收入来源,是向运行在其上的公链收费。 不提供智能合约,所以无法直接在其上搭建dApp。 Celestia 还开发了以太坊Layer2项目 #Celestiums。 3/ 什么是数据可用层(DA)? 链上产生新区块,全节点要下载该区块数据,进行复杂计算,校验该区块内所有交易有效性。若出块者不提供数据,全节点就无法校验。 当数据变多,对全节点硬件要求越来越高,能达到要求的节点变少,网络就会中心化。因此产生了Rollup扩容,将执行层从以太坊分离出去。 4/ Rollup扩容的关键是,使用中心化Sequencer(定序器)压缩数据,发布给以太坊全节点。主网验证节点,可通过欺诈证明(Optimistic)或有效性证明(ZK)校验数据。 尽管压缩了数据,快刀改钝刀,数据可用问题,仍旧存在。 一种解决方式是分片,以太坊DarkSharding为代表。各分片校验不同数据,由信标链排序。 另一种是 #Celestia 。采用纠删码,检查一个区块的所有数据是否已发布,只需下载该区块一个小片段。同时也可以利用片段恢复全部数据。 5/#Celestia 刚完成5500万美元融资,估值10亿美元。投资方包括 BinanceLabs 、Polychain、Coinbase 、Jump、FTX、Delphi、Spartan 等等。 学习资料汇总: https://pickle-flute-cbc.notion.site/Celestia-b126520b90a14d66b890fd437aad1c4f
模块化项目 #Celestia 学习笔记 Part:
1/ 什么是模块化?
模块化本质是要打破“不可能三角”,在提升性能的同时,不增加节点硬件成本和负担,避免造成中心化。 为此,将Layer1协议通常的四层:
1)共识层 2)结算层 3)数据层 4)执行层
进行拆分,以达到目的。
2/ 什么是 #Celestia ?
Celestia 将数据层单拆出来,基于Cosmos构建,仅提供共识和可插拔的数据可用服务。 商业模式toB,Layer1和Layer2可使用Celestia服务。收入来源,是向运行在其上的公链收费。 不提供智能合约,所以无法直接在其上搭建dApp。 Celestia 还开发了以太坊Layer2项目 #Celestiums。
3/ 什么是数据可用层(DA)?
链上产生新区块,全节点要下载该区块数据,进行复杂计算,校验该区块内所有交易有效性。若出块者不提供数据,全节点就无法校验。 当数据变多,对全节点硬件要求越来越高,能达到要求的节点变少,网络就会中心化。因此产生了Rollup扩容,将执行层从以太坊分离出去。
4/ Rollup扩容的关键是,使用中心化Sequencer(定序器)压缩数据,发布给以太坊全节点。主网验证节点,可通过欺诈证明(Optimistic)或有效性证明(ZK)校验数据。 尽管压缩了数据,快刀改钝刀,数据可用问题,仍旧存在。
一种解决方式是分片,以太坊DarkSharding为代表。各分片校验不同数据,由信标链排序。 另一种是 #Celestia 。采用纠删码,检查一个区块的所有数据是否已发布,只需下载该区块一个小片段。同时也可以利用片段恢复全部数据。
5/#Celestia 刚完成5500万美元融资,估值10亿美元。投资方包括 BinanceLabs 、Polychain、Coinbase 、Jump、FTX、Delphi、Spartan 等等。
学习资料汇总:
https://pickle-flute-cbc.notion.site/Celestia-b126520b90a14d66b890fd437aad1c4f
ATOM
登录解锁更多内容
登录
浏览最新的加密货币新闻
⚡️ 参与加密货币领域的最新讨论
💬 与喜爱的创作者互动
👍 查看感兴趣的内容
邮箱/手机号码
注册
登录
热门话题
我的COS交易
2.1M 次浏览
2,422 人讨论中
在币安广场COS终端交易PK,即可瓜分10,000 美元等值奖励!
Binance Announcement
24次点赞
109.3k 次浏览
币安钱包TGE
2.2M 次浏览
2,242 人讨论中
Circle扩大IPO规模
297,769 次浏览
597 人讨论中
查看更多
实时新闻
特朗普提名Brian Quintenz为CFTC主席,参议院听证会将于6月10日举行
--
摩根大通计划接受加密货币ETF作为贷款抵押品
--
加拿大总理卡尼威胁对美采取报复措施
--
特朗普与沃伦达成共识:取消债务上限以避免经济灾难
--
美联储褐皮书:价格适度上涨,经济活动略有下降
--
查看更多
热门文章
#币安Alpha上新 很多工作室的号都刷的低分 15,16分一天 他们15天也就领2次左右。都是在等大毛 小毛他们根本就
Bryon Stallons NAWR
玩合约99.9%不知道的事!很多人亏麻了,为什么?因为你从来不会计算、
趋势狂人元寶
SEC绞索算个屁!贝莱德8万ETH子弹压膛——爷今夜带你们杀穿2788鬼门关!怂狗不配跟车!
加密乌鸦哥
给大家分享一个刷分新思路,那就是选择两个bsc链的稳定的币对刷,操作如图,我选择的是koge和zkj对刷,先买上1030
超级无敌贝利亚熊大
全职炒币的我,一直牢记10炒币铁律,打印贴在了自己的电脑桌和床头,时刻提醒着自己。
分析师吴哥
查看更多
网站地图
Cookie偏好设置
平台条款和条件