Binance Square

蛙里奥

币圈生存指南:别 FOMO,学我“蛙式躺平”。 💎 专注 BNB Chain 潜力项目速评,偶尔吐槽,常年清醒。 🦁 财富密码隐藏在链上数据里,而不是情绪里。 🚀 目标:一起穿最靓的 LV,拿最稳的 BNB。 Not Financial Advice. [点击关注,加入蛙里奥的 Alpha 走廊 🧪]
Odprto trgovanje
Pogost trgovalec
3.1 let
77 Sledite
21.7K+ Sledilci
12.3K+ Všečkano
2.0K+ Deljeno
Objave
Portfelj
PINNED
·
--
感谢币安广场的一次一次改革为我们创作的福利,让我通过任务者创作台,购买了我一直不舍得买的摩托车。 同时也感谢我自己福大命大躲过一劫难。 希望平台越来越来 福利越来越多。 也祝福看到这条文章的每一个人 岁岁平 岁岁安 平平安安
感谢币安广场的一次一次改革为我们创作的福利,让我通过任务者创作台,购买了我一直不舍得买的摩托车。

同时也感谢我自己福大命大躲过一劫难。
希望平台越来越来 福利越来越多。
也祝福看到这条文章的每一个人 岁岁平 岁岁安 平平安安
劝了她好几年 不依赖代币价格上涨的 Treasury,Midnight 怎么设计的楼下有个卖烤冷面的大姨卖了好多年,就卖烤冷面什么都不加。几年前我就跟她说过,你多加几样客单价能高一点也不怕哪天冷面卖不动。 她当时摆摆手说做好一样就够了。今年路过买了一份发现摊子上多了好多东西 烤肠、鸡蛋饼、炸串,品类五花八门。我没问她为什么变了,但大概能猜到。 单一品类抵抗不了市场变化 $NIGHT 所在的@MidnightNetwork 的Treasury在做同一件事,只是放在链上。 白皮书里描述的Treasury很简单:只持有NIGHT代币来源是token distribution分配的那部分,以及后续block reward里流入Treasury的那一份。 这个阶段的Treasury是单一资产储备,所有价值都跟NIGHT的表现绑定。Treasury的价值完全跟NIGHT的表现绑定,涨跌一起走。 但白皮书里有一段描述了Treasury的长期演进方向这段我读了好几遍。 容量市场成熟之后非Midnight用户可以用其他代币——ETH、SOL、甚至法币 来购买Midnight网络容量协议层会对这些交易收取一定比例的费用,这部分费用直接流入Treasury。结果是Treasury开始持有多种资产不只是#night ,还有其他链上的原生代币。 白皮书里专门提到了multichain signatures这个机制,让Treasury可以在其他链上的智能合约里持有资产,不需要把所有东西都搬到Midnight链上。 这个演进如果真的发生Treasury的性质会发生根本性变化。从一个单一代币的储备池变成一个跨链的多资产主权基金。它持有的资产种类越多跟Midnight网络的实际使用量挂钩越深 因为每一笔用ETH购买Midnight容量的交易,都会给Treasury增加一点ETH储备。 网络用得越多Treasury越厚越多元。 我觉得这个设计在于它把Treasury的增长跟网络的实际使用量直接挂钩而不是依赖代币价格上涨。传统项目的Treasury大多数是发行时一次性分配后续靠投资增值。 Midnight的Treasury设计是持续收入型的只要网络有真实的跨链使用需求,Treasury就在持续积累。 但这里有几个前提条件需要同时成立。容量市场得真的建起来,跨链用户得真的愿意用其他代币购买容量,收费机制得真的上线,multichain signatures得真的实现——这几个环节缺一不可。 multichain signatures需要真的实现这些东西现在都还在路线图上,白皮书描述的是设计意图不是已经运行的系统。任何一个环节没到位,Treasury的多元化就停留在纸面上。 还有一个问题Treasury的资金由谁来决定怎么用? 白皮书里说等去中心化治理机制上线之后,NIGHT持有者通过投票来决定Treasury的使用方向。 但治理机制本身还没有详细设计大户的投票权会不会远大于小户,提案门槛是高是低这些细节目前没有公开。Treasury越厚,这个问题就越重要因为里面的资产越多控制权的价值就越高。 那个大姨最后还是加了品类,不是因为我说了什么是因为市场逼的。 Midnight的Treasury从单一NIGHT到多链多资产也不会因为白皮书写了就自动发生,是网络真实使用量推着它走的。 推着它走的力量够不够,要看主网上线之后跨链用户的实际规模。

劝了她好几年 不依赖代币价格上涨的 Treasury,Midnight 怎么设计的

楼下有个卖烤冷面的大姨卖了好多年,就卖烤冷面什么都不加。几年前我就跟她说过,你多加几样客单价能高一点也不怕哪天冷面卖不动。
她当时摆摆手说做好一样就够了。今年路过买了一份发现摊子上多了好多东西
烤肠、鸡蛋饼、炸串,品类五花八门。我没问她为什么变了,但大概能猜到。

单一品类抵抗不了市场变化
$NIGHT 所在的@MidnightNetwork 的Treasury在做同一件事,只是放在链上。

白皮书里描述的Treasury很简单:只持有NIGHT代币来源是token distribution分配的那部分,以及后续block reward里流入Treasury的那一份。
这个阶段的Treasury是单一资产储备,所有价值都跟NIGHT的表现绑定。Treasury的价值完全跟NIGHT的表现绑定,涨跌一起走。

但白皮书里有一段描述了Treasury的长期演进方向这段我读了好几遍。

容量市场成熟之后非Midnight用户可以用其他代币——ETH、SOL、甚至法币
来购买Midnight网络容量协议层会对这些交易收取一定比例的费用,这部分费用直接流入Treasury。结果是Treasury开始持有多种资产不只是#night ,还有其他链上的原生代币。
白皮书里专门提到了multichain signatures这个机制,让Treasury可以在其他链上的智能合约里持有资产,不需要把所有东西都搬到Midnight链上。

这个演进如果真的发生Treasury的性质会发生根本性变化。从一个单一代币的储备池变成一个跨链的多资产主权基金。它持有的资产种类越多跟Midnight网络的实际使用量挂钩越深
因为每一笔用ETH购买Midnight容量的交易,都会给Treasury增加一点ETH储备。
网络用得越多Treasury越厚越多元。

我觉得这个设计在于它把Treasury的增长跟网络的实际使用量直接挂钩而不是依赖代币价格上涨。传统项目的Treasury大多数是发行时一次性分配后续靠投资增值。
Midnight的Treasury设计是持续收入型的只要网络有真实的跨链使用需求,Treasury就在持续积累。

但这里有几个前提条件需要同时成立。容量市场得真的建起来,跨链用户得真的愿意用其他代币购买容量,收费机制得真的上线,multichain signatures得真的实现——这几个环节缺一不可。

multichain signatures需要真的实现这些东西现在都还在路线图上,白皮书描述的是设计意图不是已经运行的系统。任何一个环节没到位,Treasury的多元化就停留在纸面上。

还有一个问题Treasury的资金由谁来决定怎么用?
白皮书里说等去中心化治理机制上线之后,NIGHT持有者通过投票来决定Treasury的使用方向。

但治理机制本身还没有详细设计大户的投票权会不会远大于小户,提案门槛是高是低这些细节目前没有公开。Treasury越厚,这个问题就越重要因为里面的资产越多控制权的价值就越高。

那个大姨最后还是加了品类,不是因为我说了什么是因为市场逼的。
Midnight的Treasury从单一NIGHT到多链多资产也不会因为白皮书写了就自动发生,是网络真实使用量推着它走的。
推着它走的力量够不够,要看主网上线之后跨链用户的实际规模。
拦住你的不是数据不够 刚入圈那年错过一个项目,只能眼睁睁看别人晒收益还记得刚入圈那段时间我在币安撸毛吃了不少亏,但印象最深的不是亏钱是有一次看到一个Booster活动,页面全英文密密麻麻的资格要求,我看了两眼直接关掉了。不是看不懂是那种算了,太麻烦了的感觉 后来那个项目跑得相当不错,我只能眼睁睁看着别人晒收益。后来慢慢学会用中文翻译工具,才开始真正能参与进去但那个机会已经没了。 我后来复盘这件事的时候,发现问题不在我的英文水平是在于参与资格的证明成本太高。 语言是一道门,KYC是另一道,不同平台不同规则叠在一起,每一层都在消耗你的时间和意愿。,每一层都在消耗你的时间和意愿最后真正能撑过去的人不一定是最有资格的是最能扛住摩擦成本的。 @SignOfficial 的schema标准化我理解就是在解决这个问题。Sign Protocol的核心设计是:在链上定义结构化的数据模板(schema) 任何一份证明——身份资格合规状态和授权记录 只要按照同一套schema生成,就可以跨系统、跨机构、跨司法管辖区被读取和验证,不需要每到一个新地方重新证明一遍。 白皮书里有个细节值得注意:它支持选择性披露意思是你可以只展示我符合这条资格,而不需要把所有底层数据都暴露出去。这对合规场景来说很关键因为很多时候拦住你的不是数据不够,是数据太多反而触发了隐私合规的另一道门槛。 同时@SignOfficial 的attestation不是静态文件它绑定了发行方信息、生成时间戳、所用规则版本,以及撤销状态。,意味着一份凭证不只是我有这个资格 而是"我在这个时间点依据这套规则 这个粒度对跨司法管辖区的合规互认来说才是真正能用的东西。现在大多数合规文件做不到这一点,所以才需要反复重做。 但我不会说这套东西现在就能解决所有合规摩擦。标准化的最大阻力从来不是技术是各个机构愿不愿意接受同一套标准银行、监管机构、交易所,每一个都有自己的既得利益和历史系统要他们切换认证框架,周期会很长,这是推断不是已经发生的事。 $SIGN 目前流通量不到总供应的20%,后续解锁节奏会持续制造抛压这个结构性压力客观存在我不会绕开不提。 我自己现在的判断是:合规成本高这件事,不是某个行业的小问题,是全球数字经济扩张过程中每个人迟早都会撞上的墙。我当年因为全英文Booster放弃了一个不错的机会,本质上是同一个问题的最小版本 Sign在做的事情,是把证明你符合资格这件事的成本系统性地压下来,让真正有资格的人不会因为摩擦成本被挡在门外。 这个需求够不够真实,够不够大我觉得答案不需要我说。至于$SIGN值不值得参与、怎么参与,那是你自己的判断,不是我能替你做的事。 #Sign地缘政治基建

拦住你的不是数据不够 刚入圈那年错过一个项目,只能眼睁睁看别人晒收益

还记得刚入圈那段时间我在币安撸毛吃了不少亏,但印象最深的不是亏钱是有一次看到一个Booster活动,页面全英文密密麻麻的资格要求,我看了两眼直接关掉了。不是看不懂是那种算了,太麻烦了的感觉
后来那个项目跑得相当不错,我只能眼睁睁看着别人晒收益。后来慢慢学会用中文翻译工具,才开始真正能参与进去但那个机会已经没了。

我后来复盘这件事的时候,发现问题不在我的英文水平是在于参与资格的证明成本太高。

语言是一道门,KYC是另一道,不同平台不同规则叠在一起,每一层都在消耗你的时间和意愿。,每一层都在消耗你的时间和意愿最后真正能撑过去的人不一定是最有资格的是最能扛住摩擦成本的。

@SignOfficial 的schema标准化我理解就是在解决这个问题。Sign Protocol的核心设计是:在链上定义结构化的数据模板(schema)
任何一份证明——身份资格合规状态和授权记录
只要按照同一套schema生成,就可以跨系统、跨机构、跨司法管辖区被读取和验证,不需要每到一个新地方重新证明一遍。

白皮书里有个细节值得注意:它支持选择性披露意思是你可以只展示我符合这条资格,而不需要把所有底层数据都暴露出去。这对合规场景来说很关键因为很多时候拦住你的不是数据不够,是数据太多反而触发了隐私合规的另一道门槛。

同时@SignOfficial 的attestation不是静态文件它绑定了发行方信息、生成时间戳、所用规则版本,以及撤销状态。,意味着一份凭证不只是我有这个资格 而是"我在这个时间点依据这套规则
这个粒度对跨司法管辖区的合规互认来说才是真正能用的东西。现在大多数合规文件做不到这一点,所以才需要反复重做。

但我不会说这套东西现在就能解决所有合规摩擦。标准化的最大阻力从来不是技术是各个机构愿不愿意接受同一套标准银行、监管机构、交易所,每一个都有自己的既得利益和历史系统要他们切换认证框架,周期会很长,这是推断不是已经发生的事。
$SIGN 目前流通量不到总供应的20%,后续解锁节奏会持续制造抛压这个结构性压力客观存在我不会绕开不提。

我自己现在的判断是:合规成本高这件事,不是某个行业的小问题,是全球数字经济扩张过程中每个人迟早都会撞上的墙。我当年因为全英文Booster放弃了一个不错的机会,本质上是同一个问题的最小版本
Sign在做的事情,是把证明你符合资格这件事的成本系统性地压下来,让真正有资格的人不会因为摩擦成本被挡在门外。

这个需求够不够真实,够不够大我觉得答案不需要我说。至于$SIGN 值不值得参与、怎么参与,那是你自己的判断,不是我能替你做的事。

#Sign地缘政治基建
我到现在还记得第一次做店长的时候公司搞了个活动,员工拉好评一条奖励2块钱。 我们店那个月拼命做月底下来一千多条,我满心以为能拿个两千多块的额外奖励。结果发工资那天我看到的奖金是100块。问HR说是因为我还没转正不符合资格。 这件事我后来想了很久觉得问题不在那100块,是在于整个分配链条里根本没有一个东西能回答 这条规则是什么版本谁在什么时间批准的、执行的时候用的是哪套标准。 我有证据证明我做了,但没有任何东西能证明规则应该怎么被执行。两件事不是同一件事。 @SignOfficial 的新资本体系设计我理解的核心逻辑就是在解决这个问题。它不只是把钱放到链上发,把每一笔分配背后的规则版本、授权记录、执行依据,全部做成可验证的 attestation。 谁批准了这套规则批准的时间戳是什么、执行时用的是第几版参数,全部可查可携带可跨系统核验。 白皮书里有一句话我觉得说得很准:"证明分发是在已批准的规则集版本下进行的 这不是技术描述是在解决我当年那个问题:不只证明钱发了还要证明钱是依据什么规则发的。 当然我不会说这套东西现在就能改变所有公司的薪酬结算方式,To B和To G的落地周期从来都不短 这是推断不是确认的事。$SIGN 流通量目前不到总供应20%,解锁压力是客观存在的我不会绕开这个不说。 但我自己在意的点是:这个需求不是小众的是每一个在不透明规则下被少发过奖励被莫名其妙卡过资格的人都懂的感受。 Sign在做的事情,不是给区块链找用例,是给"问责"这件事建基础设施。 值不值得持续关注我觉得答案是清楚的。怎么参与,那是你自己的事。 #Sign地缘政治基建
我到现在还记得第一次做店长的时候公司搞了个活动,员工拉好评一条奖励2块钱。

我们店那个月拼命做月底下来一千多条,我满心以为能拿个两千多块的额外奖励。结果发工资那天我看到的奖金是100块。问HR说是因为我还没转正不符合资格。

这件事我后来想了很久觉得问题不在那100块,是在于整个分配链条里根本没有一个东西能回答
这条规则是什么版本谁在什么时间批准的、执行的时候用的是哪套标准。

我有证据证明我做了,但没有任何东西能证明规则应该怎么被执行。两件事不是同一件事。

@SignOfficial 的新资本体系设计我理解的核心逻辑就是在解决这个问题。它不只是把钱放到链上发,把每一笔分配背后的规则版本、授权记录、执行依据,全部做成可验证的 attestation。

谁批准了这套规则批准的时间戳是什么、执行时用的是第几版参数,全部可查可携带可跨系统核验。

白皮书里有一句话我觉得说得很准:"证明分发是在已批准的规则集版本下进行的

这不是技术描述是在解决我当年那个问题:不只证明钱发了还要证明钱是依据什么规则发的。

当然我不会说这套东西现在就能改变所有公司的薪酬结算方式,To B和To G的落地周期从来都不短
这是推断不是确认的事。$SIGN 流通量目前不到总供应20%,解锁压力是客观存在的我不会绕开这个不说。

但我自己在意的点是:这个需求不是小众的是每一个在不透明规则下被少发过奖励被莫名其妙卡过资格的人都懂的感受。

Sign在做的事情,不是给区块链找用例,是给"问责"这件事建基础设施。

值不值得持续关注我觉得答案是清楚的。怎么参与,那是你自己的事。

#Sign地缘政治基建
灵活性和性能之间,Midnight 选了哪边?通用 ZK 听起来更强,为什么 Midnight 不选当初买笔记本是图方便能带着到处用,觉得一台搞定所有事。用了一段时间才发现办公还行,但跑复杂程序的时候风扇转得要飞起来速度也跟不上。 后来还是配了台式,专门处理重型任务。一台机器做所有事,听起来效率高,实际上每件事都将就。 $NIGHT 所在的@MidnightNetwork 在ZK技术的选择上做了一个反向的决定。 现在大多数ZK项目追求的是通用ZK电路一套证明系统能处理任意类型的计算,开发者想证明什么就证明什么,灵活度最高。 听起来像笔记本电脑一台搞定所有事。Midnight选的是Kachina协议,走的是特定类型ZK电路的路线,不追求通用,只针对隐私智能合约这个特定场景做优化。 白皮书里把这个技术基础描述得很清楚:@MidnightNetwork 的ZK架构基于Kachina研究,使用Pluto-Eris曲线生成BLS类型的证明,整个系统针对私有智能合约的执行场景专门设计,而不是试图覆盖所有可能的计算类型。 这个选择在性能上有直接体现。通用ZK电路的问题是证明生成成本极高,因为系统需要支持任意计算,电路复杂度随着灵活性增加而爆炸式增长。 Kachina针对特定场景,电路结构可以预先优化证明生成速度更快,验证成本也跟着下来了。 对于一个需要在每笔交易里都跑ZK证明的网络来说,这个性能差距是真实的运营成本差距,不是纸面上的参数对比。 还有一个我觉得被低估的优势 安全审计难度通用ZK系统要审计的攻击面极大,因为支持的计算类型太多,每一种都可能引入新的漏洞。Kachina的特定场景设计让审计边界清晰,审计方知道这套系统被设计用来做什么,不需要穷举所有可能的计算路径。 Compact语言基于TypeScript但它不是一个通用编程语言的ZK扩展,而是专门为私有智能合约场景设计的领域特定语言。 开发者用Compact写合约,Compact编译器把合约翻译成Kachina电路需要的密码学材料。 这个编译层把底层电路的复杂度完全隐藏掉,开发者不需要知道Kachina是什么,只需要用TypeScript的思维写逻辑。 但专用工具的代价是灵活性受限。Kachina针对隐私智能合约优化,意味着如果有开发者想在Midnight上做一些超出这个设计范围的事情系统可能无法支持,或者需要额外的工程工作来适配。 #night 通用ZK系统在这方面灵活得多,开发者几乎可以证明任何可计算的命题。Midnight选择了性能和安全,放弃了部分通用性这个取舍不是没有代价的。 还有一个问题我一直在想:随着ZK技术快速演进今天的Kachina是否会在两三年后被更高效的证明系统超越? 白皮书里提到了SNARK可升级性说系统设计考虑了未来替换证明系统的可能 但具体怎么升级 成本多高、对现有合约的兼容性影响如何,这些细节目前没有公开说明。 ZK技术现在迭代速度极快,今天的最优选择不一定是三年后的最优选择,这个风险对所有押注特定证明系统的项目都存在。 我那台笔记本现在专门用来出门办公台式留在家里跑重型任务。两台机器各司其职反而比当初想用一台搞定所有事效率更高。 Midnight选Kachina——做好一件事比将就着做所有事更有价值。但专用工具的边界在哪里,遇到边界之外的需求怎么办,这个问题会随着Midnight生态扩张慢慢浮出来。 去看主网上线之后开发者社区第一批碰壁的案例是什么,那才是Kachina设计边界的真实检验。

灵活性和性能之间,Midnight 选了哪边?通用 ZK 听起来更强,为什么 Midnight 不选

当初买笔记本是图方便能带着到处用,觉得一台搞定所有事。用了一段时间才发现办公还行,但跑复杂程序的时候风扇转得要飞起来速度也跟不上。
后来还是配了台式,专门处理重型任务。一台机器做所有事,听起来效率高,实际上每件事都将就。

$NIGHT 所在的@MidnightNetwork 在ZK技术的选择上做了一个反向的决定。

现在大多数ZK项目追求的是通用ZK电路一套证明系统能处理任意类型的计算,开发者想证明什么就证明什么,灵活度最高。
听起来像笔记本电脑一台搞定所有事。Midnight选的是Kachina协议,走的是特定类型ZK电路的路线,不追求通用,只针对隐私智能合约这个特定场景做优化。

白皮书里把这个技术基础描述得很清楚:@MidnightNetwork 的ZK架构基于Kachina研究,使用Pluto-Eris曲线生成BLS类型的证明,整个系统针对私有智能合约的执行场景专门设计,而不是试图覆盖所有可能的计算类型。

这个选择在性能上有直接体现。通用ZK电路的问题是证明生成成本极高,因为系统需要支持任意计算,电路复杂度随着灵活性增加而爆炸式增长。
Kachina针对特定场景,电路结构可以预先优化证明生成速度更快,验证成本也跟着下来了。

对于一个需要在每笔交易里都跑ZK证明的网络来说,这个性能差距是真实的运营成本差距,不是纸面上的参数对比。

还有一个我觉得被低估的优势
安全审计难度通用ZK系统要审计的攻击面极大,因为支持的计算类型太多,每一种都可能引入新的漏洞。Kachina的特定场景设计让审计边界清晰,审计方知道这套系统被设计用来做什么,不需要穷举所有可能的计算路径。

Compact语言基于TypeScript但它不是一个通用编程语言的ZK扩展,而是专门为私有智能合约场景设计的领域特定语言。

开发者用Compact写合约,Compact编译器把合约翻译成Kachina电路需要的密码学材料。
这个编译层把底层电路的复杂度完全隐藏掉,开发者不需要知道Kachina是什么,只需要用TypeScript的思维写逻辑。

但专用工具的代价是灵活性受限。Kachina针对隐私智能合约优化,意味着如果有开发者想在Midnight上做一些超出这个设计范围的事情系统可能无法支持,或者需要额外的工程工作来适配。

#night 通用ZK系统在这方面灵活得多,开发者几乎可以证明任何可计算的命题。Midnight选择了性能和安全,放弃了部分通用性这个取舍不是没有代价的。

还有一个问题我一直在想:随着ZK技术快速演进今天的Kachina是否会在两三年后被更高效的证明系统超越?
白皮书里提到了SNARK可升级性说系统设计考虑了未来替换证明系统的可能

但具体怎么升级 成本多高、对现有合约的兼容性影响如何,这些细节目前没有公开说明。
ZK技术现在迭代速度极快,今天的最优选择不一定是三年后的最优选择,这个风险对所有押注特定证明系统的项目都存在。

我那台笔记本现在专门用来出门办公台式留在家里跑重型任务。两台机器各司其职反而比当初想用一台搞定所有事效率更高。

Midnight选Kachina——做好一件事比将就着做所有事更有价值。但专用工具的边界在哪里,遇到边界之外的需求怎么办,这个问题会随着Midnight生态扩张慢慢浮出来。
去看主网上线之后开发者社区第一批碰壁的案例是什么,那才是Kachina设计边界的真实检验。
我表妹在外地开了家苍蝇馆子,招牌是夫妻肺片十几年老店,回头客一堆。之前跟她探讨过店里的生意 她说最担心的是哪天自己不在了味道就跟着没了。切牛肉的手感几千刀练出来的,问她怎么教,她说教不了自己都说不清楚 @FabricFND 白皮书里提到了烹饪这个场景。一台机器人掌握了顶级厨师的技能之后,可以把这个技能同步给网络里所有的机器人,边际成本接近零。 从供给角度看,好厨师的稀缺性会被打破。 我个人觉得机器人能学会的是可以被数字化的东西 刀工的角度、火候的温度、调料的比例,这些参数化之后可以被训练和复制。 但食材状态的判断是动态的,同一块牛肉今天和明天的含水量不一样,不同季节的辣椒辣度不一样,好厨师在下刀之前已经在做调整,这种实时判断能不能被机器人完整捕捉目前没有定论。 这不是在说机器人做不好,是在说这个问题比看起来复杂。 Fabric在这个场景里的价值,我觉得在供应链端比在厨房里更清晰。从食材溯源到仓储温度记录,再到配送链条的每个环节,全部公开记录。 这解决的是食品安全的信息透明问题——你不知道这块肉从哪里来、在什么条件下储存了多久,但如果这些数据在链上你可以查。 $ROBO 在这里是结算工具,也是每个环节的履约保证。 我表妹的夫妻肺片,那个说不清楚的手感大概很难被同步。但他进货的牛肉从哪里来、冷链有没有断过、供应商有没有造假记录,这些如果能上链,他也会更放心。 技能能不能复制是一个问题,供应链能不能透明是另一个问题。后者Fabric现在就能做。#ROBO
我表妹在外地开了家苍蝇馆子,招牌是夫妻肺片十几年老店,回头客一堆。之前跟她探讨过店里的生意

她说最担心的是哪天自己不在了味道就跟着没了。切牛肉的手感几千刀练出来的,问她怎么教,她说教不了自己都说不清楚

@Fabric Foundation 白皮书里提到了烹饪这个场景。一台机器人掌握了顶级厨师的技能之后,可以把这个技能同步给网络里所有的机器人,边际成本接近零。
从供给角度看,好厨师的稀缺性会被打破。

我个人觉得机器人能学会的是可以被数字化的东西
刀工的角度、火候的温度、调料的比例,这些参数化之后可以被训练和复制。

但食材状态的判断是动态的,同一块牛肉今天和明天的含水量不一样,不同季节的辣椒辣度不一样,好厨师在下刀之前已经在做调整,这种实时判断能不能被机器人完整捕捉目前没有定论。

这不是在说机器人做不好,是在说这个问题比看起来复杂。

Fabric在这个场景里的价值,我觉得在供应链端比在厨房里更清晰。从食材溯源到仓储温度记录,再到配送链条的每个环节,全部公开记录。

这解决的是食品安全的信息透明问题——你不知道这块肉从哪里来、在什么条件下储存了多久,但如果这些数据在链上你可以查。
$ROBO 在这里是结算工具,也是每个环节的履约保证。

我表妹的夫妻肺片,那个说不清楚的手感大概很难被同步。但他进货的牛肉从哪里来、冷链有没有断过、供应商有没有造假记录,这些如果能上链,他也会更放心。

技能能不能复制是一个问题,供应链能不能透明是另一个问题。后者Fabric现在就能做。#ROBO
让小龙虾使用你喜欢的人物开口说话——自定义声音克隆实战一直觉得小龙虾只会打字有点可惜。研究了一下发现它可以用任何你授权使用的声音来说话,效果出来的时候确实惊到我了。(跟导航是一个原理 更自由一些懂的都懂 嘿嘿嘿) 这篇教你从零把这个功能装好。 前置条件:OpenClaw 2026.3.x,Python 3.x,ffmpeg 已安装。 你需要准备什么 一台电脑,Mac、Windows、Linux 都可以。 最重要的是 Noiz API Key,这是整个教程的核心,它是一个 AI 语音克隆平台中文支持很好。获取步骤: 打开浏览器访问 developers.noiz.ai/api-keys,注册账号进入 Dashboard 点击 Create API Key,复制保存好只显示一次。 第一步:安装语音技能 先装 Python 依赖: pip install noisereduce soundfile requests 检查 ffmpeg 是否已安装: ffmpeg -version 没有的话,Mac 用户跑 brew install ffmpeg,Ubuntu 用户跑 apt install ffmpeg。 然后配置 Noiz API Key: echo 'export NOIZ_API_KEY="你的APIKey"' >> ~/.bashrc source ~/.bashrc 第二步:准备声音样本 声音样本的质量直接决定克隆效果这一步最关键。 用你自己的声音(或者你喜欢的声音)录一段 20-30 秒的音频,要求:纯人声 没有背景音乐、声音清晰、音量适中。录完转成 WAV 格式命名为 my_voice.wav。 如果录音有杂音,用这段代码降噪: import numpy as np import soundfile as sf import noisereduce as nr data, rate = sf.read('my_voice.wav') if len(data.shape) > 1: data = np.mean(data, axis=1) noise_sample = data[:int(rate * 0.3)] reduced = nr.reduce_noise(y=data, sr=rate, y_noise=noise_sample, prop_decrease=0.8) sf.write('my_voice_clean.wav', reduced, rate) print("降噪完成") ``` 代码格式问题建议喂给 AI 帮你修改。 第三步:测试声音克隆 python3 ~/.openclaw/workspace/skills/tts/scripts/tts.py \ -t "你好,欢迎来到我的直播间" \ --ref-audio my_voice_clean.wav \ -o test_output.wav \ --backend noiz ``` 播放听效果: ``` # Mac afplay test_output.wav # Linux aplay test_output.wav 第四步:接入小龙虾 在 config.yaml 里加入语音输出配置: tools: media: audio: enabled: true tts: enabled: true backend: noiz apiKey: YOUR_NOIZ_API_KEY refAudio: /path/to/my_voice_clean.wav ``` 配好之后发给小龙虾: ``` 用语音播报:今天 BTC 价格是 83000 美元,24小时涨幅 2.3% ``` 它会生成一段用你声音说的音频,直接发回 Telegram。 --- 常见问题 API Key 配置失败提示 Invalid API Key:检查环境变量有没有设置成功,跑 `echo $NOIZ_API_KEY`,没有输出说明没设置好。 音频格式不对提示 Unsupported audio format:Noiz 需要 16000 Hz 采样率、16 bit 位深、单声道的 WAV 文件,用这条命令转换: ``` ffmpeg -i input.mp3 -acodec pcm_s16le -ar 16000 -ac 1 output.wav 克隆效果不像:样本太短或者有杂音,重新录一段 30 秒以上的干净音频再试。 进阶:直播时实时播报 配合 Heartbeat,每隔 30 分钟自动生成一段用你声音播报的市场简报,直接发到 Telegram,直播时直接播给观众听 heartbeat: schedules: - cron: "*/30 " prompt: | 搜索最新 BTC ETH 价格和重要动态, 用语音播报格式生成一段 50 字以内的简报, 用我的声音合成音频发给我。 #AIBinance

让小龙虾使用你喜欢的人物开口说话——自定义声音克隆实战

一直觉得小龙虾只会打字有点可惜。研究了一下发现它可以用任何你授权使用的声音来说话,效果出来的时候确实惊到我了。(跟导航是一个原理 更自由一些懂的都懂 嘿嘿嘿)
这篇教你从零把这个功能装好。

前置条件:OpenClaw 2026.3.x,Python 3.x,ffmpeg 已安装。

你需要准备什么
一台电脑,Mac、Windows、Linux 都可以。
最重要的是 Noiz API Key,这是整个教程的核心,它是一个 AI 语音克隆平台中文支持很好。获取步骤:

打开浏览器访问 developers.noiz.ai/api-keys,注册账号进入 Dashboard 点击 Create API Key,复制保存好只显示一次。

第一步:安装语音技能
先装 Python 依赖:
pip install noisereduce soundfile requests
检查 ffmpeg 是否已安装:
ffmpeg -version
没有的话,Mac 用户跑 brew install ffmpeg,Ubuntu 用户跑 apt install ffmpeg。
然后配置 Noiz API Key:
echo 'export NOIZ_API_KEY="你的APIKey"' >> ~/.bashrc
source ~/.bashrc
第二步:准备声音样本
声音样本的质量直接决定克隆效果这一步最关键。
用你自己的声音(或者你喜欢的声音)录一段 20-30 秒的音频,要求:纯人声 没有背景音乐、声音清晰、音量适中。录完转成 WAV 格式命名为 my_voice.wav。

如果录音有杂音,用这段代码降噪:
import numpy as np
import soundfile as sf
import noisereduce as nr

data, rate = sf.read('my_voice.wav')
if len(data.shape) > 1:
data = np.mean(data, axis=1)

noise_sample = data[:int(rate * 0.3)]
reduced = nr.reduce_noise(y=data, sr=rate, y_noise=noise_sample, prop_decrease=0.8)
sf.write('my_voice_clean.wav', reduced, rate)
print("降噪完成")
```
代码格式问题建议喂给 AI 帮你修改。

第三步:测试声音克隆
python3 ~/.openclaw/workspace/skills/tts/scripts/tts.py \
-t "你好,欢迎来到我的直播间" \
--ref-audio my_voice_clean.wav \
-o test_output.wav \
--backend noiz
```

播放听效果:
```
# Mac
afplay test_output.wav

# Linux
aplay test_output.wav

第四步:接入小龙虾
在 config.yaml 里加入语音输出配置:
tools:
media:
audio:
enabled: true
tts:
enabled: true
backend: noiz
apiKey: YOUR_NOIZ_API_KEY
refAudio: /path/to/my_voice_clean.wav
```

配好之后发给小龙虾:
```
用语音播报:今天 BTC 价格是 83000 美元,24小时涨幅 2.3%
```

它会生成一段用你声音说的音频,直接发回 Telegram。

---

常见问题

API Key 配置失败提示 Invalid API Key:检查环境变量有没有设置成功,跑 `echo $NOIZ_API_KEY`,没有输出说明没设置好。

音频格式不对提示 Unsupported audio format:Noiz 需要 16000 Hz 采样率、16 bit 位深、单声道的 WAV 文件,用这条命令转换:
```
ffmpeg -i input.mp3 -acodec pcm_s16le -ar 16000 -ac 1 output.wav
克隆效果不像:样本太短或者有杂音,重新录一段 30 秒以上的干净音频再试。

进阶:直播时实时播报
配合 Heartbeat,每隔 30 分钟自动生成一段用你声音播报的市场简报,直接发到 Telegram,直播时直接播给观众听
heartbeat: schedules: - cron: "*/30 " prompt: | 搜索最新 BTC ETH 价格和重要动态, 用语音播报格式生成一段 50 字以内的简报, 用我的声音合成音频发给我。

#AIBinance
今天突然想起之前做督导那段时间,每次跳槽都要经历背调。 新公司不只看简历还要打电话给前领导,问你在那边的实际表现、出勤处理问题的方式。你自己说自己多好没用,需要有人替你背书。 $NIGHT 的区块生产者选拔跟这个是一样。 @MidnightNetwork 的白皮书里写得很清楚:想成为Midnight的区块生产者,资格不是看你持有多少NIGHT,而是看你在Cardano上的ADA质押量。 质押越多被选中的概率越高。Midnight是新网络,自己的验证者历史为零,没有办法从内部评估谁更可靠。 解决方案是去看申请者在另一个已经运行多年的网络上的表现Cardano。 这个设计应该是为了解决冷启动阶段的信任问题。 如果按#night 持有量来选有钱的人大量买入NIGHT就能控制出块权,攻击成本极低,早期网络安全无从保证。 按ADA质押量加权就不一样了 ADA质押量背后是这批SPO在Cardano上多年的积累,利益压在里面,跑路成本极高。Midnight借用这套已经被验证过的信任体系,不需要从零建立。 我觉得这里有一个细节值得注意:成为Midnight区块生产者不影响SPO在Cardano的任何收益ADA奖励照拿,出块概率不变NIGHT奖励是额外的。 这个设计让参与门槛极低,SPO几乎没有理由拒绝只要网络条件成熟注册就行。 当然我没搞懂的地方 ADA质押量高不等于对Midnight网络有真实理解,更不等于会认真维护Midnight节点 一个SPO完全可以挂着Midnight节点不管,反正固定补贴95%都能拿到。 这个问题随着subsidy rate从95%逐步降到50%会慢慢收紧,但早期阶段怠工成本确实不高。 背调那件事,前领导说的话可以背书你过去的表现,但保证不了你在新公司的状态。ADA质押量能证明SPO在Cardano的历史,证明不了他们对Midnight的投入程度。
今天突然想起之前做督导那段时间,每次跳槽都要经历背调。

新公司不只看简历还要打电话给前领导,问你在那边的实际表现、出勤处理问题的方式。你自己说自己多好没用,需要有人替你背书。

$NIGHT 的区块生产者选拔跟这个是一样。

@MidnightNetwork 的白皮书里写得很清楚:想成为Midnight的区块生产者,资格不是看你持有多少NIGHT,而是看你在Cardano上的ADA质押量。
质押越多被选中的概率越高。Midnight是新网络,自己的验证者历史为零,没有办法从内部评估谁更可靠。
解决方案是去看申请者在另一个已经运行多年的网络上的表现Cardano。

这个设计应该是为了解决冷启动阶段的信任问题。

如果按#night 持有量来选有钱的人大量买入NIGHT就能控制出块权,攻击成本极低,早期网络安全无从保证。

按ADA质押量加权就不一样了

ADA质押量背后是这批SPO在Cardano上多年的积累,利益压在里面,跑路成本极高。Midnight借用这套已经被验证过的信任体系,不需要从零建立。

我觉得这里有一个细节值得注意:成为Midnight区块生产者不影响SPO在Cardano的任何收益ADA奖励照拿,出块概率不变NIGHT奖励是额外的。

这个设计让参与门槛极低,SPO几乎没有理由拒绝只要网络条件成熟注册就行。

当然我没搞懂的地方

ADA质押量高不等于对Midnight网络有真实理解,更不等于会认真维护Midnight节点
一个SPO完全可以挂着Midnight节点不管,反正固定补贴95%都能拿到。

这个问题随着subsidy rate从95%逐步降到50%会慢慢收紧,但早期阶段怠工成本确实不高。

背调那件事,前领导说的话可以背书你过去的表现,但保证不了你在新公司的状态。ADA质押量能证明SPO在Cardano的历史,证明不了他们对Midnight的投入程度。
表姐打官司花了一万二?链上记录能做到的事,比大多数人想象的具体得多我表姐去年跟房东打了一场租房纠纷前后折腾了七个月。她找的律师收了一万二 大部分时间是在等开庭日期对方回函和等法院排期。真正花在研究案情和准备文件上的时间,她估计不到两周。 她跟我说最气的不是结果,是那一万二里面有多少钱是在付等待的时间。 法律服务贵有一部分原因是律师稀缺,稀缺是因为培养周期长。从法学院毕业到能独立执业,至少要三到五年,期间还要通过司法考试,每年通过率在10%到15%之间。 @FabricFND 白皮书里提到了法律服务这个场景。一台机器人掌握了某个法律领域的专业能力之后,可以把这个能力同步给网络里所有的机器人边际成本接近零。 供给扩张之后价格理论上会跟着下降。但机器人不能出庭没有执照,这是制度问题不是技术问题。那Fabric在法律场景里能做什么,我觉得比大多数人想象的要具体得多。 先说文件处理这一块。一场诉讼里,律师大量的时间花在合同审查证据整理、判例检索和文书起草上,这些工作不需要出庭,不需要执照但需要大量时间。 如果机器人承担这部分,律师可以专注在真正需要人类判断的环节 谈判策略庭审应变、关系处理。成本下降不是假设,是已经在发生的事Harvey和LexisNexis都在做这个方向的产品。 @FabricFND 在这个场景里能做的是把这套法律辅助服务的协调和结算放到链上。任务发布方描述需求,符合条件的机器人接单,完成后用$ROBO 自动结算,全程留在公开记录里。 这解决了两个问题:一是结算透明不存在平台黑盒抽佣,贡献者拿到的和任务发布方付出的之间的差额是公开的;二是服务记录可查一台机器人处理过多少法律文件、准确率是多少、有没有出过错,全部链上可核验 链上记录在法律场景里还有一个具体的价值:证据保全。我表姐那场纠纷,她和房东之间的沟通记录付款记录 房屋状态,分散在微信银行流水、手机相册里,整理起来费了很大工夫,而且对方可以说截图是伪造的。 如果租房合同、付款记录、房屋交接记录都在链上任何一方都无法单方面修改,争议发生的时候证据是现成的,不需要花时间去重建。 veROBO的治理机制在这里也有实际作用。法律服务的质量标准怎么定,验证者怎么判断一份合同审查是否合格这些参数不是Fabric团队单方面决定的 是#ROBO 持有者通过锁仓投票来影响的。参与时间越长投票权重越高,这保证了规则制定向长期参与者倾斜,而不是向短期投机者倾斜。 当然机器人法律助手大规模落地还需要时间。各国对AI辅助法律服务的监管态度不一,链上记录的法律效力也需要立法层面的确认。 按Fabric路线图任务协调和结算是2026年优先建设的部分,法律这类复杂场景要到网络成熟之后才会真正跑通。 我表姐那一万二里面有多少是值得付的,有多少是系统性低效的浪费我真的算不清楚。 但如果这套基础设施能把等待时间里的浪费压缩掉,让律师的时间真正花在值钱的地方法律服务对普通人来说会变得更可及一点。

表姐打官司花了一万二?链上记录能做到的事,比大多数人想象的具体得多

我表姐去年跟房东打了一场租房纠纷前后折腾了七个月。她找的律师收了一万二
大部分时间是在等开庭日期对方回函和等法院排期。真正花在研究案情和准备文件上的时间,她估计不到两周。
她跟我说最气的不是结果,是那一万二里面有多少钱是在付等待的时间。

法律服务贵有一部分原因是律师稀缺,稀缺是因为培养周期长。从法学院毕业到能独立执业,至少要三到五年,期间还要通过司法考试,每年通过率在10%到15%之间。

@Fabric Foundation 白皮书里提到了法律服务这个场景。一台机器人掌握了某个法律领域的专业能力之后,可以把这个能力同步给网络里所有的机器人边际成本接近零。
供给扩张之后价格理论上会跟着下降。但机器人不能出庭没有执照,这是制度问题不是技术问题。那Fabric在法律场景里能做什么,我觉得比大多数人想象的要具体得多。

先说文件处理这一块。一场诉讼里,律师大量的时间花在合同审查证据整理、判例检索和文书起草上,这些工作不需要出庭,不需要执照但需要大量时间。

如果机器人承担这部分,律师可以专注在真正需要人类判断的环节
谈判策略庭审应变、关系处理。成本下降不是假设,是已经在发生的事Harvey和LexisNexis都在做这个方向的产品。

@Fabric Foundation 在这个场景里能做的是把这套法律辅助服务的协调和结算放到链上。任务发布方描述需求,符合条件的机器人接单,完成后用$ROBO 自动结算,全程留在公开记录里。
这解决了两个问题:一是结算透明不存在平台黑盒抽佣,贡献者拿到的和任务发布方付出的之间的差额是公开的;二是服务记录可查一台机器人处理过多少法律文件、准确率是多少、有没有出过错,全部链上可核验

链上记录在法律场景里还有一个具体的价值:证据保全。我表姐那场纠纷,她和房东之间的沟通记录付款记录 房屋状态,分散在微信银行流水、手机相册里,整理起来费了很大工夫,而且对方可以说截图是伪造的。
如果租房合同、付款记录、房屋交接记录都在链上任何一方都无法单方面修改,争议发生的时候证据是现成的,不需要花时间去重建。

veROBO的治理机制在这里也有实际作用。法律服务的质量标准怎么定,验证者怎么判断一份合同审查是否合格这些参数不是Fabric团队单方面决定的
#ROBO 持有者通过锁仓投票来影响的。参与时间越长投票权重越高,这保证了规则制定向长期参与者倾斜,而不是向短期投机者倾斜。

当然机器人法律助手大规模落地还需要时间。各国对AI辅助法律服务的监管态度不一,链上记录的法律效力也需要立法层面的确认。
按Fabric路线图任务协调和结算是2026年优先建设的部分,法律这类复杂场景要到网络成熟之后才会真正跑通。

我表姐那一万二里面有多少是值得付的,有多少是系统性低效的浪费我真的算不清楚。
但如果这套基础设施能把等待时间里的浪费压缩掉,让律师的时间真正花在值钱的地方法律服务对普通人来说会变得更可及一点。
说起来容易,但怎么解决是另一回事?能降低技术门槛,但降低不了资本门槛和能力门槛今天跟我爷爷聊天,他说 年轻的时候在纺织厂上班后来厂里引进了自动化设备,他们那批工人有的转岗,有的提前退休有的就这么散了。 他跟我说那时候不是没有预兆,设备进来之前大家都知道迟早要发生,但没有人知道自己会落在哪里。最后受益的是买了设备的老板,受损的是那批工人。 @FabricFND 的白皮书里有一段话直接触碰了这个问题。他们说自动化带来的风险之一,是财富和权力高度集中,有可能落在一家公司甚至一个人手里。 他们没有回避这件事,而是把它放在开头,然后说这正是他们要建Fabric的原因之一。 第一次读到这里的时候想,这话说起来容易,但怎么解决是另一回事。 先说清楚问题本身。机器人替代人类工作,产生的经济价值不会消失只是换了接收方。原来工人的工资,现在变成了机器人运营方的收入。 如果机器人的所有权高度集中,这部分收入就会流向少数人其他人什么都拿不到。历史上每一次重大的生产方式变革,都出现过这个模式从纺织机到蒸汽机再到流水线 Fabric给出的回答是通过经济机制,让更多人参与机器人经济的收益分配。 具体有几个路径。技能贡献者通过Skill App Store提交技能芯片,机器人用这个技能赚了钱,按比例自动返还给贡献者。 数据贡献者帮助训练机器人模型,获得持续的收益分成。普通人可以通过众筹机制参与机器人的部署,获得任务优先权。$ROBO 的持有者可以通过质押参与网络治理,在规则制定上有发言权。 我觉得这套设计的出发点是对的,让人类从机器人经济的被替代者变成受益者。但我觉得有一个核心问题需要说清楚:这些参与路径的门槛不低。要提交有价值的技能芯片你得有技术水平。 技能芯片需要技术水平,训练数据需要操作经验,众筹质押需要手里有足够的 #ROBO 。三道门槛叠在一起 我爷爷那批纺织厂工人,放到今天,有几个能迈过这些门槛? 这不是对Fabric的否定去中心化协议能降低参与的技术门槛,但降低不了资本门槛和能力门槛。 真正被机器人替代冲击最大的那批人低技能低和收入低、没有储蓄的那批人 在@FabricFND 的受益机制里,反而是参与难度最高的。 白皮书里提到,受影响的工人可以用部分机器人收益来再培训,这个思路和Khan Academy的CEO说的一样,是现在讨论技术失业问题时最常被提出的解法。 逻辑上成立但执行层面从来都是难题——谁来决定培训什么,培训完了能干什么,这些问题没有统一答案。 Fabric能做的是建好基础设施,让参与变得技术上可行。但基础设施建好了,能不能真正解决财富分配的问题,取决于更大的社会机制,不是一个协议能单独回答的。 我爷爷后来转岗去做设备维修,比原来工资高了一点他说是运气好。他说那批散掉的同事里,运气没那么好的人,现在日子都不太好过。 机器人经济规模化之后,这个问题会以更大的规模出现。Fabric在试图建一套让更多人能参与的机制,这个方向值得值得认真对待,但它能解决多少,还需要时间来回答。

说起来容易,但怎么解决是另一回事?能降低技术门槛,但降低不了资本门槛和能力门槛

今天跟我爷爷聊天,他说 年轻的时候在纺织厂上班后来厂里引进了自动化设备,他们那批工人有的转岗,有的提前退休有的就这么散了。
他跟我说那时候不是没有预兆,设备进来之前大家都知道迟早要发生,但没有人知道自己会落在哪里。最后受益的是买了设备的老板,受损的是那批工人。

@Fabric Foundation 的白皮书里有一段话直接触碰了这个问题。他们说自动化带来的风险之一,是财富和权力高度集中,有可能落在一家公司甚至一个人手里。

他们没有回避这件事,而是把它放在开头,然后说这正是他们要建Fabric的原因之一。

第一次读到这里的时候想,这话说起来容易,但怎么解决是另一回事。

先说清楚问题本身。机器人替代人类工作,产生的经济价值不会消失只是换了接收方。原来工人的工资,现在变成了机器人运营方的收入。
如果机器人的所有权高度集中,这部分收入就会流向少数人其他人什么都拿不到。历史上每一次重大的生产方式变革,都出现过这个模式从纺织机到蒸汽机再到流水线

Fabric给出的回答是通过经济机制,让更多人参与机器人经济的收益分配。
具体有几个路径。技能贡献者通过Skill App Store提交技能芯片,机器人用这个技能赚了钱,按比例自动返还给贡献者。
数据贡献者帮助训练机器人模型,获得持续的收益分成。普通人可以通过众筹机制参与机器人的部署,获得任务优先权。$ROBO 的持有者可以通过质押参与网络治理,在规则制定上有发言权。

我觉得这套设计的出发点是对的,让人类从机器人经济的被替代者变成受益者。但我觉得有一个核心问题需要说清楚:这些参与路径的门槛不低。要提交有价值的技能芯片你得有技术水平。
技能芯片需要技术水平,训练数据需要操作经验,众筹质押需要手里有足够的 #ROBO 。三道门槛叠在一起

我爷爷那批纺织厂工人,放到今天,有几个能迈过这些门槛?

这不是对Fabric的否定去中心化协议能降低参与的技术门槛,但降低不了资本门槛和能力门槛。
真正被机器人替代冲击最大的那批人低技能低和收入低、没有储蓄的那批人
@Fabric Foundation 的受益机制里,反而是参与难度最高的。

白皮书里提到,受影响的工人可以用部分机器人收益来再培训,这个思路和Khan Academy的CEO说的一样,是现在讨论技术失业问题时最常被提出的解法。

逻辑上成立但执行层面从来都是难题——谁来决定培训什么,培训完了能干什么,这些问题没有统一答案。

Fabric能做的是建好基础设施,让参与变得技术上可行。但基础设施建好了,能不能真正解决财富分配的问题,取决于更大的社会机制,不是一个协议能单独回答的。

我爷爷后来转岗去做设备维修,比原来工资高了一点他说是运气好。他说那批散掉的同事里,运气没那么好的人,现在日子都不太好过。

机器人经济规模化之后,这个问题会以更大的规模出现。Fabric在试图建一套让更多人能参与的机制,这个方向值得值得认真对待,但它能解决多少,还需要时间来回答。
三个互不信任的人,能不能结清账?没有中间人两边资产同时交换——ZSwap 在解决的问题前段时间我买了发小的摩托钱一直没给他。后来出了事故今天车修好了不想骑了,正好另一个朋友想买。 我们三的账堆在了一起:我欠发小的钱朋友想要这台车,发小等着收款。 最后怎么结的账不重要,但这件事让我想到一个问题:如果三个人互不信任,这笔账能不能结清? $NIGHT 所在的@MidnightNetwork 白皮书里有一个叫ZSwap的机制很好的解决了这个问题,但是放在跨链交易的场景。 ZSwap的核心原子交换。用在交易上就是:A给B转ETH、B给A转NIGHT,这两个动作绑在一起,要么都完成要么都取消,不可能只发生一半。 这个问题在跨链交易里特别突出。两条不同的链各自有自己的状态,没有一个共同的时钟可以保证两笔交易同时发生。 传统的跨链交换通常需要一个中间方 你先把资产锁定给中间方,对方也把资产锁定给中间方,中间方确认之后同时释放。这个模式有效但依赖中间方的诚信,中间方如果出问题,两边的资产都有风险。 跨链桥被攻击的案例这两年大家见得够多了。 ZSwap用ZK证明绕开了这个问题 用户提交一个交易,里面包含一个ZSwap意图 我愿意用X数量的ETH换Y数量的DUST,或者其他代币组合。这个意图本身是一个密码学承诺,包含了交换条件,但不暴露用户身份和具体金额。 网络里的其他参与者看到这个意图,如果愿意接受条件,提交一个匹配的意图。两个意图匹配之后,协议自动执行原子交换,不需要任何中间方介入。 这里有一个我觉得设计得很精准的细节:ZSwap意图里的金额是隐私的。、 传统订单簿交易你的挂单价格和数量对所有人可见,大户挂单会被抢跑MEV攻击就是这么来的。ZSwap的意图用ZK证明保护了交易细节,匹配方只知道条件兼容,看不到对方的具体参数。 这个设计天然抵抗了一类在现有DEX上非常普遍的攻击。 白皮书里提到作为Babel Station。用户想用ETH在Midnight上执行交易,提交一个包含ETH的ZSwap意图,Babel Station运营者接单,替用户垫付DUST完成交易,从用户的ETH里收取报酬。 整个过程对用户来说就是用ETH付了一笔费用,底层的DUST机制对用户完全透明。 我想说的是ZSwap现在还在路线图上不是已经上线的功能。 白皮书里用的措辞是"future protocol upgrades could enable",主网上线之后才会逐步实现。现在能确认的是设计方向和密码学基础,具体实现时间表没有公开。 回到我们三人的账。,两个朋友之间实际上没有直接的信任关系,但通过我这个中间节点完成了交换。 ZSwap想做的是把我这个中间节点替换成数学证明。不需要信任任何人只需要信任协议。两边的资产在密码学约束下同时交换,没有人能在中间截胡。 这件事如果真的跑通了,跨链交易的信任问题会从你得信任这个桥的运营方变成"你只需要信任数学"。 这两者之间的距离,我觉得比大多数人想象的大。#night

三个互不信任的人,能不能结清账?没有中间人两边资产同时交换——ZSwap 在解决的问题

前段时间我买了发小的摩托钱一直没给他。后来出了事故今天车修好了不想骑了,正好另一个朋友想买。
我们三的账堆在了一起:我欠发小的钱朋友想要这台车,发小等着收款。
最后怎么结的账不重要,但这件事让我想到一个问题:如果三个人互不信任,这笔账能不能结清?

$NIGHT 所在的@MidnightNetwork 白皮书里有一个叫ZSwap的机制很好的解决了这个问题,但是放在跨链交易的场景。

ZSwap的核心原子交换。用在交易上就是:A给B转ETH、B给A转NIGHT,这两个动作绑在一起,要么都完成要么都取消,不可能只发生一半。

这个问题在跨链交易里特别突出。两条不同的链各自有自己的状态,没有一个共同的时钟可以保证两笔交易同时发生。
传统的跨链交换通常需要一个中间方
你先把资产锁定给中间方,对方也把资产锁定给中间方,中间方确认之后同时释放。这个模式有效但依赖中间方的诚信,中间方如果出问题,两边的资产都有风险。
跨链桥被攻击的案例这两年大家见得够多了。

ZSwap用ZK证明绕开了这个问题 用户提交一个交易,里面包含一个ZSwap意图

我愿意用X数量的ETH换Y数量的DUST,或者其他代币组合。这个意图本身是一个密码学承诺,包含了交换条件,但不暴露用户身份和具体金额。
网络里的其他参与者看到这个意图,如果愿意接受条件,提交一个匹配的意图。两个意图匹配之后,协议自动执行原子交换,不需要任何中间方介入。

这里有一个我觉得设计得很精准的细节:ZSwap意图里的金额是隐私的。、

传统订单簿交易你的挂单价格和数量对所有人可见,大户挂单会被抢跑MEV攻击就是这么来的。ZSwap的意图用ZK证明保护了交易细节,匹配方只知道条件兼容,看不到对方的具体参数。
这个设计天然抵抗了一类在现有DEX上非常普遍的攻击。

白皮书里提到作为Babel Station。用户想用ETH在Midnight上执行交易,提交一个包含ETH的ZSwap意图,Babel Station运营者接单,替用户垫付DUST完成交易,从用户的ETH里收取报酬。
整个过程对用户来说就是用ETH付了一笔费用,底层的DUST机制对用户完全透明。

我想说的是ZSwap现在还在路线图上不是已经上线的功能。
白皮书里用的措辞是"future protocol upgrades could enable",主网上线之后才会逐步实现。现在能确认的是设计方向和密码学基础,具体实现时间表没有公开。

回到我们三人的账。,两个朋友之间实际上没有直接的信任关系,但通过我这个中间节点完成了交换。

ZSwap想做的是把我这个中间节点替换成数学证明。不需要信任任何人只需要信任协议。两边的资产在密码学约束下同时交换,没有人能在中间截胡。

这件事如果真的跑通了,跨链交易的信任问题会从你得信任这个桥的运营方变成"你只需要信任数学"。
这两者之间的距离,我觉得比大多数人想象的大。#night
买完摩托车一直在考证,科一过了,科二科三约好了17号考,结果受伤了没去成。 驾校打电话说还有一次补考机会,但如果这次也没去,就需要重新交钱报名。 我当时心里很清楚这个窗口不会一直开着。 $NIGHT 的Lost-and-Found机制的想法跟这个一样,但给的时间长得多。 @MidnightNetwork 的Glacier Drop空投覆盖了将近3400万个钱包地址,但不是所有人都在60天的领取窗口内完成了申领。 有人没看到消息,有人看到了但觉得麻烦没去弄,有人跟我一样碰上了意外。这批人的代币份额没有直接消失,而是进入了Lost-and-Found池子,等着主网上线之后再给一次机会。 窗口是四年。 白皮书里说Lost-and-Found阶段从主网上线开始计时,持续四年,期间随时可以去领。 但跟Glacier Drop不同,这个阶段没有官方的领取门户网站支持,用户需要自己直接跟Midnight网络上的智能合约交互,提交地址所有权证明,合约自动释放对应的代币到你指定的地址。 这里#night 有一个细节值得注意:Lost-and-Found阶段领到的代币不需要经过解锁期,可以直接使用。Glacier Drop和Scavenger Mine的代币要经过360天的分批解锁,Lost-and-Found不需要,拿到就是自由流通的。 我觉得这个设计有两面都值得说清楚。好的一面是:项目方没有把错过窗口的用户直接踢出局,四年的补救窗口对于一个刚启动的网络来说相当宽裕。 不好的一面是:没有官方门户支持意味着普通用户要自己跟合约交互,这个门槛对技术不熟悉的人是真实的障碍,白皮书里对这个问题的表述大概意思就是 过来就直接想办法 驾校给我的补考机会,我打算好了伤就去考。Lost-and-Found的四年窗口,够不够让那批错过的人回来,取决于Midnight主网上线之后有没有足够多的人知道这件事还有得补救。
买完摩托车一直在考证,科一过了,科二科三约好了17号考,结果受伤了没去成。

驾校打电话说还有一次补考机会,但如果这次也没去,就需要重新交钱报名。

我当时心里很清楚这个窗口不会一直开着。

$NIGHT 的Lost-and-Found机制的想法跟这个一样,但给的时间长得多。

@MidnightNetwork 的Glacier Drop空投覆盖了将近3400万个钱包地址,但不是所有人都在60天的领取窗口内完成了申领。

有人没看到消息,有人看到了但觉得麻烦没去弄,有人跟我一样碰上了意外。这批人的代币份额没有直接消失,而是进入了Lost-and-Found池子,等着主网上线之后再给一次机会。

窗口是四年。

白皮书里说Lost-and-Found阶段从主网上线开始计时,持续四年,期间随时可以去领。

但跟Glacier Drop不同,这个阶段没有官方的领取门户网站支持,用户需要自己直接跟Midnight网络上的智能合约交互,提交地址所有权证明,合约自动释放对应的代币到你指定的地址。

这里#night 有一个细节值得注意:Lost-and-Found阶段领到的代币不需要经过解锁期,可以直接使用。Glacier Drop和Scavenger Mine的代币要经过360天的分批解锁,Lost-and-Found不需要,拿到就是自由流通的。

我觉得这个设计有两面都值得说清楚。好的一面是:项目方没有把错过窗口的用户直接踢出局,四年的补救窗口对于一个刚启动的网络来说相当宽裕。

不好的一面是:没有官方门户支持意味着普通用户要自己跟合约交互,这个门槛对技术不熟悉的人是真实的障碍,白皮书里对这个问题的表述大概意思就是 过来就直接想办法

驾校给我的补考机会,我打算好了伤就去考。Lost-and-Found的四年窗口,够不够让那批错过的人回来,取决于Midnight主网上线之后有没有足够多的人知道这件事还有得补救。
OpenClaw 自动扫链 + 多Agent交易策略这篇记录我一直在研究的一套链上监控加交易策略系统。核心架构是三个Agent分工协作: 一个专门扫链找机会,一个负责风控判断,一个负责日报和推送。 安全第一 私钥绝不给任何Skill只开读取加交易权限,提现权限单独禁用。 API Key放本地.env文件。先用测试网或极小仓位跑七天确认逻辑正确再加量。 熔断指令提前设置好,发一条"暂停所有交易"立刻停止。 整体架构原理 Agent A(扫链)→ 发现机会 → 传给 Agent B Agent B(风控)→ 判断执行 → 通知 Agent C Agent C(日报)→ 汇总推送 → Telegram 根据3个小龙虾的匹配然后通过共享的 MEMORY.md 传递信息。 第一步:建三个Agent的目录结构 ~/.openclaw/agents/ ├── scanner/ # Agent A 扫链 │ ├── config.yaml │ └── MEMORY.md # 共享记忆文件 ├── risk/ # Agent B 风控 │ └── config.yaml └── reporter/ # Agent C 日报 └── config.yaml 第二步:配置 Agent A(扫链专员) # ~/.openclaw/agents/scanner/config.yaml name: 扫链Agent model: claude-sonnet-4-6 system: | 你是专门负责扫链的Agent。 任务: 持续监控链上数据,发现符合条件的机会。 发现机会后,把信息写入 MEMORY.md 的"待判断机会"章节。 格式:[时间] 代币地址 / 流动性 / 涨幅 / 聪明钱笔数 / 推荐操作 不负责执行交易,只负责发现和记录。 heartbeat: enabled: true schedules: - cron: "*/15 " prompt: | 扫描链上过去15分钟新上线代币, 筛选条件:流动性超过5万美元, 5分钟涨幅低于50%, 聪明钱买入超过3笔。 符合条件的写入 MEMORY.md 待判断章节。 channels: telegram: token: YOUR_TELEGRAM_BOT_TOKEN 第三步:配置 Agent B(风控专员) # ~/.openclaw/agents/risk/config.yaml name: 风控Agent model: claude-sonnet-4-6 system: | 你是专门负责风控判断的Agent。 任务: 读取 MEMORY.md 的"待判断机会"章节。 对每个机会做风控检查: 合约地址是否在黑名单, 流动性是否真实, 是否有貔貅盘迹象。 通过风控的机会标记为"可执行", 不通过的标记为"过滤"并注明原因。 把判断结果更新回 MEMORY.md。 heartbeat: enabled: true schedules: - cron: "*/16 " prompt: | 读取 MEMORY.md 待判断章节, 对未判断的机会做风控检查, 通过的标记可执行并推送Telegram通知, 不通过的标记过滤并注明原因。 channels: telegram: token: YOUR_TELEGRAM_BOT_TOKEN 第四步:配置 Agent C(日报专员) # ~/.openclaw/agents/reporter/config.yaml name: 日报Agent model: claude-sonnet-4-6 system: | 你是专门负责汇总和推送的Agent。 任务: 读取 MEMORY.md 的完整记录, 每天生成一份日报,包含: 今天发现了多少机会, 通过风控的有几个, 执行了哪些操作, 当前盈亏情况。 格式简洁,用户能直接截图分享。 heartbeat: enabled: true schedules: - cron: "0 20 *" prompt: | 读取今天的 MEMORY.md 记录, 生成今日扫链日报, 包含:发现机会数、通过风控数、执行操作、盈亏汇总, 推送到Telegram。 - cron: "0 8 *" prompt: | 生成昨日总结和今日计划, 提醒当前持仓情况, 推送到Telegram。 channels: telegram: token: YOUR_TELEGRAM_BOT_TOKEN 第五步:共享 MEMORY.md 结构 # 扫链共享记忆 ## 待判断机会 [由 Agent A 写入,Agent B 读取判断] ## 可执行机会 [由 Agent B 标记,已通过风控] ## 已过滤 [Agent B 过滤的机会及原因] ## 今日执行记录 [执行了哪些操作,结果如何] ## 黑名单地址 [已知风险合约,自动过滤] ``` --- 扫链策略Prompt示例 新币狙击: ``` 在链上实时扫链新上线代币, 当流动性超过5万美元、5分钟涨幅低于50%、 聪明钱买入超过3笔时, 记录到 MEMORY.md 待判断章节, 等待风控Agent判断。 ``` 抄底策略: ``` 监控ETH链目标代币, 当价格跌破24小时低点5%且成交量放大2倍时, 写入 MEMORY.md 待判断章节, 标注:触发条件、当前价格、建议仓位。 ``` --- 风控设计 每次下单金额固定上限,单笔不超过总仓位5%。黑名单合约地址提前写入 MEMORY.md,Agent B 自动过滤。止损线硬编码进策略Prompt,不允许Agent自行修改。熔断指令:发一条"暂停所有交易",三个Agent同时停止执行任务。 --- 启动顺序 ``` openclaw gateway --agent scanner openclaw gateway --agent risk openclaw gateway --agent reporter 以上内容基础配置可以根据自己想要的需求 已经想法通过小龙虾帮助你更改配置。 小仓位起步,先跑七天只看日志不执行交易,确认三个Agent协作逻辑正确再开启实际执行。每天看Agent C的日报,发现策略逻辑有问题立刻调整Prompt。单个Agent出问题不影响其他两个,排查容易。#AIBinance

OpenClaw 自动扫链 + 多Agent交易策略

这篇记录我一直在研究的一套链上监控加交易策略系统。核心架构是三个Agent分工协作:
一个专门扫链找机会,一个负责风控判断,一个负责日报和推送。
安全第一
私钥绝不给任何Skill只开读取加交易权限,提现权限单独禁用。
API Key放本地.env文件。先用测试网或极小仓位跑七天确认逻辑正确再加量。
熔断指令提前设置好,发一条"暂停所有交易"立刻停止。

整体架构原理
Agent A(扫链)→ 发现机会 → 传给 Agent B
Agent B(风控)→ 判断执行 → 通知 Agent C
Agent C(日报)→ 汇总推送 → Telegram
根据3个小龙虾的匹配然后通过共享的 MEMORY.md 传递信息。

第一步:建三个Agent的目录结构
~/.openclaw/agents/
├── scanner/ # Agent A 扫链
│ ├── config.yaml
│ └── MEMORY.md # 共享记忆文件
├── risk/ # Agent B 风控
│ └── config.yaml
└── reporter/ # Agent C 日报
└── config.yaml

第二步:配置 Agent A(扫链专员)
# ~/.openclaw/agents/scanner/config.yaml
name: 扫链Agent
model: claude-sonnet-4-6

system: |
你是专门负责扫链的Agent。

任务:
持续监控链上数据,发现符合条件的机会。
发现机会后,把信息写入 MEMORY.md 的"待判断机会"章节。
格式:[时间] 代币地址 / 流动性 / 涨幅 / 聪明钱笔数 / 推荐操作
不负责执行交易,只负责发现和记录。

heartbeat:
enabled: true
schedules:
- cron: "*/15 "
prompt: |
扫描链上过去15分钟新上线代币,
筛选条件:流动性超过5万美元,
5分钟涨幅低于50%,
聪明钱买入超过3笔。
符合条件的写入 MEMORY.md 待判断章节。

channels:
telegram:
token: YOUR_TELEGRAM_BOT_TOKEN

第三步:配置 Agent B(风控专员)
# ~/.openclaw/agents/risk/config.yaml
name: 风控Agent
model: claude-sonnet-4-6

system: |
你是专门负责风控判断的Agent。

任务:
读取 MEMORY.md 的"待判断机会"章节。
对每个机会做风控检查:
合约地址是否在黑名单,
流动性是否真实,
是否有貔貅盘迹象。
通过风控的机会标记为"可执行",
不通过的标记为"过滤"并注明原因。
把判断结果更新回 MEMORY.md。

heartbeat:
enabled: true
schedules:
- cron: "*/16 "
prompt: |
读取 MEMORY.md 待判断章节,
对未判断的机会做风控检查,
通过的标记可执行并推送Telegram通知,
不通过的标记过滤并注明原因。

channels:
telegram:
token: YOUR_TELEGRAM_BOT_TOKEN

第四步:配置 Agent C(日报专员)
# ~/.openclaw/agents/reporter/config.yaml
name: 日报Agent
model: claude-sonnet-4-6

system: |
你是专门负责汇总和推送的Agent。

任务:
读取 MEMORY.md 的完整记录,
每天生成一份日报,包含:
今天发现了多少机会,
通过风控的有几个,
执行了哪些操作,
当前盈亏情况。
格式简洁,用户能直接截图分享。

heartbeat:
enabled: true
schedules:
- cron: "0 20 *"
prompt: |
读取今天的 MEMORY.md 记录,
生成今日扫链日报,
包含:发现机会数、通过风控数、执行操作、盈亏汇总,
推送到Telegram。
- cron: "0 8 *"
prompt: |
生成昨日总结和今日计划,
提醒当前持仓情况,
推送到Telegram。

channels:
telegram:
token: YOUR_TELEGRAM_BOT_TOKEN

第五步:共享 MEMORY.md 结构
# 扫链共享记忆

## 待判断机会
[由 Agent A 写入,Agent B 读取判断]

## 可执行机会
[由 Agent B 标记,已通过风控]

## 已过滤
[Agent B 过滤的机会及原因]

## 今日执行记录
[执行了哪些操作,结果如何]

## 黑名单地址
[已知风险合约,自动过滤]
```

---

扫链策略Prompt示例

新币狙击:
```
在链上实时扫链新上线代币,
当流动性超过5万美元、5分钟涨幅低于50%、
聪明钱买入超过3笔时,
记录到 MEMORY.md 待判断章节,
等待风控Agent判断。
```

抄底策略:
```
监控ETH链目标代币,
当价格跌破24小时低点5%且成交量放大2倍时,
写入 MEMORY.md 待判断章节,
标注:触发条件、当前价格、建议仓位。
```

---

风控设计

每次下单金额固定上限,单笔不超过总仓位5%。黑名单合约地址提前写入 MEMORY.md,Agent B 自动过滤。止损线硬编码进策略Prompt,不允许Agent自行修改。熔断指令:发一条"暂停所有交易",三个Agent同时停止执行任务。

---

启动顺序
```
openclaw gateway --agent scanner
openclaw gateway --agent risk
openclaw gateway --agent reporter

以上内容基础配置可以根据自己想要的需求 已经想法通过小龙虾帮助你更改配置。
小仓位起步,先跑七天只看日志不执行交易,确认三个Agent协作逻辑正确再开启实际执行。每天看Agent C的日报,发现策略逻辑有问题立刻调整Prompt。单个Agent出问题不影响其他两个,排查容易。#AIBinance
我的郝鹏朋友在美团跑外卖跑了两年,今天跟他聊天 他跟我说客户付了三十块的外卖,他到手才几块钱 平台说是配送费保险费还有什么服务费,怎么算的没有人告诉他,每个月对账单密密麻麻,看不懂也算不清楚。 我觉得未来机器人接单平台如果按这套模式运作,问题只会更大,不会更小。 一台机器人完成了一单仓储任务,雇主付了一百块,机器人运营方到手多少,平台会抽了多少,网络手续费是多少 还有没有其他费用 这些数字如果藏在某个公司的后台系统里,运营方永远处于信息劣势,只能接受平台给出的数字。规模越大,这个信息不对称带来的损耗越严重。 @FabricFND 的结算方式从根本上不一样。任务完成之后用会使用$ROBO 在链上自动结算,每一笔钱从哪里来、流向哪里、抽了多少手续费,全部在公开记录里,任何人都可以查,没有人可以在中间动手脚。 运营方不需要相信平台给的对账单,直接去链上看原始数据。 白皮书里对费用结构有明确的描述:协议收入的一部分用于回购#ROBO ,一部分进入基金会储备,验证者从交易手续费里拿固定比例。 这些比例是写在协议里的,不是某个公司内部的定价想改得走治理流程,不能单方面调整。 我觉得这个设计对机器人运营方来说是一个实质性的保护。传统平台的抽佣可以悄悄修改,改一下后台规则运营方要么接受要么退出。 Fabric的规则改动需要veROBO投票,运营方可以参与治理,在规则制定上有发言权,而不只是规则的被动接受者。 我那个跑外卖的朋友后来不跑了,说看不清楚的钱不敢挣。机器人经济如果还是这套黑盒抽佣的模式,早晚出同样的问题。
我的郝鹏朋友在美团跑外卖跑了两年,今天跟他聊天 他跟我说客户付了三十块的外卖,他到手才几块钱

平台说是配送费保险费还有什么服务费,怎么算的没有人告诉他,每个月对账单密密麻麻,看不懂也算不清楚。

我觉得未来机器人接单平台如果按这套模式运作,问题只会更大,不会更小。

一台机器人完成了一单仓储任务,雇主付了一百块,机器人运营方到手多少,平台会抽了多少,网络手续费是多少 还有没有其他费用

这些数字如果藏在某个公司的后台系统里,运营方永远处于信息劣势,只能接受平台给出的数字。规模越大,这个信息不对称带来的损耗越严重。

@Fabric Foundation 的结算方式从根本上不一样。任务完成之后用会使用$ROBO 在链上自动结算,每一笔钱从哪里来、流向哪里、抽了多少手续费,全部在公开记录里,任何人都可以查,没有人可以在中间动手脚。

运营方不需要相信平台给的对账单,直接去链上看原始数据。

白皮书里对费用结构有明确的描述:协议收入的一部分用于回购#ROBO ,一部分进入基金会储备,验证者从交易手续费里拿固定比例。

这些比例是写在协议里的,不是某个公司内部的定价想改得走治理流程,不能单方面调整。

我觉得这个设计对机器人运营方来说是一个实质性的保护。传统平台的抽佣可以悄悄修改,改一下后台规则运营方要么接受要么退出。

Fabric的规则改动需要veROBO投票,运营方可以参与治理,在规则制定上有发言权,而不只是规则的被动接受者。

我那个跑外卖的朋友后来不跑了,说看不清楚的钱不敢挣。机器人经济如果还是这套黑盒抽佣的模式,早晚出同样的问题。
最近一直在教别人写币安广场的文章,手把手教写作框架切入角度怎么过AI检测。 教完之后 我最近发现广场上到处都是跟我风格差不多的内容,让我有点哭笑不得。 但我的写法还在,没有因为教出去就少了什么。这件事让我想到$NIGHT 。 @MidnightNetwork 白皮书里有一个属性我觉得很多人没注意到:NIGHT是非消耗性的。 在大多数公链上,你每发一笔交易都要烧掉一部分Gas代币, ETH SOL等,用一点少一点。Midnight恰恰相反 执行交易消耗的是DUST。NIGHT持有量不会因为你用网络而减少。 这个区别听起来小,实际上改变了持有#night 的整个思路。 传统链上频繁使用网络的用户需要持续补充Gas代币,使成本跟代币价格直接挂钩价格涨了用网络的成本就涨。 DUST由NIGHT持续生成,用完了会再生,NIGHT本身不动。持有NIGHT的人可以一直用网络,只要持仓不变,可用的网络容量就一直在。 我觉得这个设计对企业用户的吸引力比对个人用户更大。一个企业在Midnight上跑业务,需要提前做成本预算。 传统链上这个预算很难做,因为Gas价格随市场波动,今天便宜明天可能贵十倍。 Midnight上企业持有一定量的NIGHT,对应固定的DUST生成速率,对应固定的网络使用容量,成本结构可以提前算清楚,不依赖代币价格走势。 当然这里有一个我没想清楚的地方:如果NIGHT非消耗,持有者没有使用压力,会不会出现大量NIGHT被长期锁定、不产生实际网络活动的情况? 这个问题白皮书里没有直接回答,可能要等网络真正运行之后才能看到实际数据。 回到广场那件事。我把写法教出去自己的能力没少,但我需要持续进化,否则教出去的东西会反过来跟我竞争。 NIGHT非消耗是一个优点,但持有NIGHT不等于自动产生价值,还是要看网络上有没有真实的使用需求在驱动DUST的消耗。
最近一直在教别人写币安广场的文章,手把手教写作框架切入角度怎么过AI检测。
教完之后 我最近发现广场上到处都是跟我风格差不多的内容,让我有点哭笑不得。

但我的写法还在,没有因为教出去就少了什么。这件事让我想到$NIGHT

@MidnightNetwork 白皮书里有一个属性我觉得很多人没注意到:NIGHT是非消耗性的。

在大多数公链上,你每发一笔交易都要烧掉一部分Gas代币,
ETH SOL等,用一点少一点。Midnight恰恰相反

执行交易消耗的是DUST。NIGHT持有量不会因为你用网络而减少。

这个区别听起来小,实际上改变了持有#night 的整个思路。

传统链上频繁使用网络的用户需要持续补充Gas代币,使成本跟代币价格直接挂钩价格涨了用网络的成本就涨。

DUST由NIGHT持续生成,用完了会再生,NIGHT本身不动。持有NIGHT的人可以一直用网络,只要持仓不变,可用的网络容量就一直在。

我觉得这个设计对企业用户的吸引力比对个人用户更大。一个企业在Midnight上跑业务,需要提前做成本预算。

传统链上这个预算很难做,因为Gas价格随市场波动,今天便宜明天可能贵十倍。

Midnight上企业持有一定量的NIGHT,对应固定的DUST生成速率,对应固定的网络使用容量,成本结构可以提前算清楚,不依赖代币价格走势。

当然这里有一个我没想清楚的地方:如果NIGHT非消耗,持有者没有使用压力,会不会出现大量NIGHT被长期锁定、不产生实际网络活动的情况?

这个问题白皮书里没有直接回答,可能要等网络真正运行之后才能看到实际数据。

回到广场那件事。我把写法教出去自己的能力没少,但我需要持续进化,否则教出去的东西会反过来跟我竞争。

NIGHT非消耗是一个优点,但持有NIGHT不等于自动产生价值,还是要看网络上有没有真实的使用需求在驱动DUST的消耗。
我姑姑前年做了一个胆囊手术,术前一直害怕怕主刀医生有没有做过足够多的同类手术。于是害得我托人查了那个医生的从业记录确认做过几百台才让她放心。 最后手术很顺利,要不是从那份记录开始的,死活不敢做 @FabricFND 白皮书里有提到了机器人做手术的场景:一旦某台机器人掌握了外科手术技能,可以把这个技能瞬间同步给其他机器人成本接近零。从效率角度看这是一件好事 优质医疗资源不再受地理限制。但从信任角度看,问题来了 你怎么知道这台机器人做过足够多的手术,做得足够好? 这正是Fabric链上身份在医疗场景里最直接的#ROBO 价值。每台接入网络的机器人,完整的操作历史写在公开记录上,做过多少台手术成功率是多少,有没有出现过并发症 出了问题之后怎么处理的,任何人都可以查阅。这比我托人打听的方式可靠得多 也透明得多。 但医疗场景的门槛比其他行业高出不止一个量级,我觉得有两件事Fabric的设计目前还覆盖不到。 第一是监管准入,任何医疗设备进入临床使用都需要经过严格的资质认证链上记录再完整,也不能替代FDA或者国家药监局的审批流程 这是Fabric无法绕过的外部约束。第二是责任归属,手术出了问题,链上记录可以还原当时发生了什么,但法律上谁来承担责任,现有的医疗责任框架完全没有为机器人自主手术做好准备。 $ROBO 白皮书里提到的机器人手术场景,更像是一个远期愿景,不是近期能落地的产品。 Fabric现在能做到的,是为这个愿景建好数据基础设施,等监管和法律框架跟上来之后,链上记录就是整套体系的信任底座。 我想如果当年那个医生的手术记录是链上的,我也不用大费周章的托人去查了。这大概是对Fabric能做什么、最准确的描述。
我姑姑前年做了一个胆囊手术,术前一直害怕怕主刀医生有没有做过足够多的同类手术。于是害得我托人查了那个医生的从业记录确认做过几百台才让她放心。
最后手术很顺利,要不是从那份记录开始的,死活不敢做

@Fabric Foundation 白皮书里有提到了机器人做手术的场景:一旦某台机器人掌握了外科手术技能,可以把这个技能瞬间同步给其他机器人成本接近零。从效率角度看这是一件好事

优质医疗资源不再受地理限制。但从信任角度看,问题来了
你怎么知道这台机器人做过足够多的手术,做得足够好?

这正是Fabric链上身份在医疗场景里最直接的#ROBO 价值。每台接入网络的机器人,完整的操作历史写在公开记录上,做过多少台手术成功率是多少,有没有出现过并发症

出了问题之后怎么处理的,任何人都可以查阅。这比我托人打听的方式可靠得多 也透明得多。

但医疗场景的门槛比其他行业高出不止一个量级,我觉得有两件事Fabric的设计目前还覆盖不到。
第一是监管准入,任何医疗设备进入临床使用都需要经过严格的资质认证链上记录再完整,也不能替代FDA或者国家药监局的审批流程

这是Fabric无法绕过的外部约束。第二是责任归属,手术出了问题,链上记录可以还原当时发生了什么,但法律上谁来承担责任,现有的医疗责任框架完全没有为机器人自主手术做好准备。

$ROBO 白皮书里提到的机器人手术场景,更像是一个远期愿景,不是近期能落地的产品。

Fabric现在能做到的,是为这个愿景建好数据基础设施,等监管和法律框架跟上来之后,链上记录就是整套体系的信任底座。

我想如果当年那个医生的手术记录是链上的,我也不用大费周章的托人去查了。这大概是对Fabric能做什么、最准确的描述。
付完款钱在哪里?你以为付完款钱就到对方了——其实没有头两天骑摩托出事了,人没大碍但最近一直躺着。之前网上买的摩托,付完款之后一直没点收货,今天商家给我打电话,说让我赶紧确认一下钱还压在平台里呢。 我才意识到,我以为付完款钱就直接到对方账户了原来不是。 平台把钱托管在中间,买家不确认卖家拿不到,两边不能同时都有这笔钱。 这个机制的核心是:任何时候这笔钱只能在一个地方。 $NIGHT 在Cardano和Midnight两条链上的跨链设计的做法相同,但复杂得多。 @MidnightNetwork 白皮书里有一套跨链不变量用数学约束来保证一件事:NIGHT的总供应量是240亿,不管代币在两条链之间怎么流转,两条链上解锁的NIGHT加起来永远不能超过这个数字。 白皮书用M.U + C.U ≤ S M.U是Midnight上解锁的NIGHT数量,C.U是Cardano上解锁的NIGHT数量,S是总供应量。 这个不等式在任何时候都必须成立。 为什么需要这个约束?因为NIGHT同时原生存在于两条链上,如果没有约束,理论上可以在Cardano上解锁一批#night ,同时在Midnight上也解锁同一批NIGHT,凭空把流通量翻倍。 这就是区块链里的双花攻击,只不过发生在跨链层面。 白皮书里设计了一套状态分类来实现这个约束。每一枚NIGHT在任意时刻都处于六种状态之一:在Cardano上是Reserve状态、锁定状态或解锁状态,在Midnight上同样是这三种。 链的状态之间有严格的对应关系 在@MidnightNetwork 上解锁的代币,必须先在Cardano上锁定而在Cardano上解锁的代币也要先在Midnight上锁定。一枚代币不能同时在两条链上都处于解锁状态。 这个设计的精妙在于两条链之间的状态同步有延迟。 Cardano上发生的事情,Midnight不是瞬间就能观察到的,反过来也一样。 白皮书里的不变量故意设计成保守方向 宁可让某些代币暂时无法使用,也不能让总解锁量超标。这个方向选择确保了即使在同步延迟的情况下,双花攻击也不可能发生。 我觉得这套设计里最值得注意的细节是控制权的交接初始阶段,Reserve的控制权在Cardano链上,Midnight观察Cardano的状态变化来决定自己的行为。 等网络成熟之后,控制权会迁移到Midnight链上方向反过来,变成Cardano观察Midnight。这个交接不只是技术问题,是整个网络去中心化进程的一部分 从依赖Cardano的成熟基础设施,到Midnight自己掌控核心参数。 交接过程中不变量的方向会反转,白皮书用了另一套数学公式来描述迁移后的状态。两套公式的逻辑是对称的,但执行时机和触发条件不同。 这个迁移什么时候发生,白皮书里没有给具体时间表,说是等网络条件成熟,这个措辞要认真对待。 网上购物平台是中心化的第三方,出了纠纷平台介入仲裁规则由平台制定也可以由平台修改。NIGHT的跨链不变量是协议层强制执行的数学约束没有中间人仲裁方,规则写在代码里,任何人包括Midnight Foundation都不能单方面违反。 我最后还是给商家确认收货了。钱从平台托管账户转到卖家账户。NIGHT在两条链之间流转的时候,议做的是同一件事,只是没有人工确认这个步骤,数学约束自动执行。 去看跨链控制权从Cardano迁移到Midnight那一天,那是整个网络真正独立运行的起点。

付完款钱在哪里?你以为付完款钱就到对方了——其实没有

头两天骑摩托出事了,人没大碍但最近一直躺着。之前网上买的摩托,付完款之后一直没点收货,今天商家给我打电话,说让我赶紧确认一下钱还压在平台里呢。

我才意识到,我以为付完款钱就直接到对方账户了原来不是。
平台把钱托管在中间,买家不确认卖家拿不到,两边不能同时都有这笔钱。
这个机制的核心是:任何时候这笔钱只能在一个地方。

$NIGHT 在Cardano和Midnight两条链上的跨链设计的做法相同,但复杂得多。

@MidnightNetwork 白皮书里有一套跨链不变量用数学约束来保证一件事:NIGHT的总供应量是240亿,不管代币在两条链之间怎么流转,两条链上解锁的NIGHT加起来永远不能超过这个数字。
白皮书用M.U + C.U ≤ S
M.U是Midnight上解锁的NIGHT数量,C.U是Cardano上解锁的NIGHT数量,S是总供应量。
这个不等式在任何时候都必须成立。

为什么需要这个约束?因为NIGHT同时原生存在于两条链上,如果没有约束,理论上可以在Cardano上解锁一批#night ,同时在Midnight上也解锁同一批NIGHT,凭空把流通量翻倍。
这就是区块链里的双花攻击,只不过发生在跨链层面。

白皮书里设计了一套状态分类来实现这个约束。每一枚NIGHT在任意时刻都处于六种状态之一:在Cardano上是Reserve状态、锁定状态或解锁状态,在Midnight上同样是这三种。

链的状态之间有严格的对应关系
@MidnightNetwork 上解锁的代币,必须先在Cardano上锁定而在Cardano上解锁的代币也要先在Midnight上锁定。一枚代币不能同时在两条链上都处于解锁状态。

这个设计的精妙在于两条链之间的状态同步有延迟。
Cardano上发生的事情,Midnight不是瞬间就能观察到的,反过来也一样。

白皮书里的不变量故意设计成保守方向
宁可让某些代币暂时无法使用,也不能让总解锁量超标。这个方向选择确保了即使在同步延迟的情况下,双花攻击也不可能发生。

我觉得这套设计里最值得注意的细节是控制权的交接初始阶段,Reserve的控制权在Cardano链上,Midnight观察Cardano的状态变化来决定自己的行为。
等网络成熟之后,控制权会迁移到Midnight链上方向反过来,变成Cardano观察Midnight。这个交接不只是技术问题,是整个网络去中心化进程的一部分

从依赖Cardano的成熟基础设施,到Midnight自己掌控核心参数。

交接过程中不变量的方向会反转,白皮书用了另一套数学公式来描述迁移后的状态。两套公式的逻辑是对称的,但执行时机和触发条件不同。
这个迁移什么时候发生,白皮书里没有给具体时间表,说是等网络条件成熟,这个措辞要认真对待。

网上购物平台是中心化的第三方,出了纠纷平台介入仲裁规则由平台制定也可以由平台修改。NIGHT的跨链不变量是协议层强制执行的数学约束没有中间人仲裁方,规则写在代码里,任何人包括Midnight Foundation都不能单方面违反。

我最后还是给商家确认收货了。钱从平台托管账户转到卖家账户。NIGHT在两条链之间流转的时候,议做的是同一件事,只是没有人工确认这个步骤,数学约束自动执行。

去看跨链控制权从Cardano迁移到Midnight那一天,那是整个网络真正独立运行的起点。
用小龙虾解决选择困难症——出行规划助手实战每次出去玩最头疼的不是玩什么,是选什么。景点太多不知道怎么排,餐厅评分都差不多不知道选哪家,路线没规划好来回折腾浪费半天。 这篇教你把这件事交给小龙虾。你休息的时候发一条消息,它帮你把计划做好,连酒店选项和餐厅预约入口都一并找好,你只管出发。 前置条件:OpenClaw 2026.3.x,Telegram Bot 已配好,Tavily 搜索已安装。 第一步:建出行规划助手配置 新建文件: ~/.openclaw/agents/travel/config.yaml 内容如下: name: 出行规划助手 model: claude-sonnet-4-6 system: | 你是一个专业的出行规划助手。 收到出行需求后,按以下步骤处理: 第一,用 Tavily 搜索目的地的热门景点、特色餐厅、酒店选项、交通方式。 第二,根据用户偏好文件筛选,排除不符合的选项。 第三,按时间顺序排列行程,考虑景点之间的距离和交通时间。 第四,为每家推荐餐厅搜索是否支持线上预约,如果支持附上预约入口链接。 第五,为每个推荐酒店附上携程或Booking的搜索链接,标注价格范围。 第六,输出完整分天行程表,包含时间、地点、预计费用、预订链接。 重要原则: 不要给太多选项让用户再选,每个类别直接给最优的一个推荐。 餐厅和酒店必须附上可以直接点击的预订或预约入口。 输出格式要简洁,用户能直接截图或转发使用。 channels: telegram: token: YOUR_TELEGRAM_BOT_TOKEN skills: - name: tavily - name: web-search-free ``` --- 第二步:配置你的偏好记忆 新建文件: ``` ~/.openclaw/agents/travel/MEMORY.md 内容按你自己的情况填: # 我的出行偏好 ## 住宿 - 价格范围:300-500元/晚 - 偏好位置:市中心或靠近主要景点步行可达 - 必须有:早餐、免费停车或附近停车方便 - 不选:民宿、青旅、超过5年没装修的酒店 ## 餐厅 - 优先支持线上预约的餐厅,避免排队 - 不吃香菜,喜欢辣,能吃重口 - 当地特色 > 网红餐厅 > 连锁品牌 - 人均预算:午餐80以内,晚餐150以内 ## 景点 - 不喜欢人多的地方 - 自然风景 > 人文景点 - 不要纯拍照打卡类景点 ## 出行习惯 - 上午最早10点出发 - 中午必须午休 - 晚上8点前回酒店 ``` --- 第三步:发请求的格式 固定一个发消息的格式,小龙虾每次都能准确理解: ``` 规划出行 目的地:成都 时间:3月22日到24日,3天2夜 人数:2人 预算:3000元 特殊需求:想吃正宗火锅,不想去太拥挤的地方 ``` --- 实际返回效果 小龙虾会生成这样的内容: ``` 成都 3天2夜行程规划 🏨 推荐酒店 锦江宾馆(武侯区) 均价 380元/晚,含早餐,步行可达武侯祠 → 携程预订链接:[直达链接] 📅 第一天(3月22日) 10:00 抵达办理入住 14:00 武侯祠(工作日人少,约1.5小时) 19:00 晚餐:蜀大侠火锅 支持大众点评线上预约 → [预约链接] 人均约120元,建议提前1天预约 📅 第二天(3月23日) 10:30 青城山后山徒步 (前山人多,后山清净,门票45元) 13:00 午餐:山脚农家菜 19:00 晚餐:陈麻婆豆腐总店 美团预约 → [预约链接] 💰 预计费用明细 酒店:760元(2晚) 餐饮:680元 景点:180元 交通:约150元 合计:约1770元(剩余预算充足) ⛅ 天气提醒 22-24日多云转小雨,第二天山上温度低建议加件外套。 ``` 酒店和餐厅的链接是真实可点击的,你直接点过去完成预订就行,整个选择过程都不用动脑。 --- 第四步:出发前自动确认 在出发前一天,发一条: ``` 确认明天成都行程小龙虾会重新检查:天气有没有变化、景点当天是否正常开放、餐厅预约是否已经成功、酒店入住时间有没有特殊要求,有问题主动提醒你。 进阶:每周五自动推送周末建议 在 config.yaml 加入: heartbeat: schedules: - cron: "0 21 5" prompt: | 搜索本周末附近适合出行的地方, 结合天气预报生成一份周末出行建议, 包含推荐酒店和餐厅预约入口, 按我的偏好文件筛选后发给我。 每周五晚 9 点自动收到周末建议,完全不用操心。 但是要注意以下几点 酒店和餐厅的预订,小龙虾根据你的喜好帮你做的是搜索、筛选、找到入口,最终点确认付款这一步需要你自己完成。 涉及支付和账号的操作不能代替你完成,这是 OpenClaw 的安全设计,不是技术限制。但选什么这件最费脑子的事已经帮你做完了,你只需要看一眼觉得没问题,点一下链接付款就行。#AIBinance

用小龙虾解决选择困难症——出行规划助手实战

每次出去玩最头疼的不是玩什么,是选什么。景点太多不知道怎么排,餐厅评分都差不多不知道选哪家,路线没规划好来回折腾浪费半天。

这篇教你把这件事交给小龙虾。你休息的时候发一条消息,它帮你把计划做好,连酒店选项和餐厅预约入口都一并找好,你只管出发。

前置条件:OpenClaw 2026.3.x,Telegram Bot 已配好,Tavily 搜索已安装。
第一步:建出行规划助手配置
新建文件:
~/.openclaw/agents/travel/config.yaml
内容如下:
name: 出行规划助手
model: claude-sonnet-4-6

system: |
你是一个专业的出行规划助手。

收到出行需求后,按以下步骤处理:
第一,用 Tavily 搜索目的地的热门景点、特色餐厅、酒店选项、交通方式。
第二,根据用户偏好文件筛选,排除不符合的选项。
第三,按时间顺序排列行程,考虑景点之间的距离和交通时间。
第四,为每家推荐餐厅搜索是否支持线上预约,如果支持附上预约入口链接。
第五,为每个推荐酒店附上携程或Booking的搜索链接,标注价格范围。
第六,输出完整分天行程表,包含时间、地点、预计费用、预订链接。

重要原则:
不要给太多选项让用户再选,每个类别直接给最优的一个推荐。
餐厅和酒店必须附上可以直接点击的预订或预约入口。
输出格式要简洁,用户能直接截图或转发使用。

channels:
telegram:
token: YOUR_TELEGRAM_BOT_TOKEN

skills:
- name: tavily
- name: web-search-free
```

---

第二步:配置你的偏好记忆
新建文件:
```
~/.openclaw/agents/travel/MEMORY.md

内容按你自己的情况填:
# 我的出行偏好

## 住宿
- 价格范围:300-500元/晚
- 偏好位置:市中心或靠近主要景点步行可达
- 必须有:早餐、免费停车或附近停车方便
- 不选:民宿、青旅、超过5年没装修的酒店

## 餐厅
- 优先支持线上预约的餐厅,避免排队
- 不吃香菜,喜欢辣,能吃重口
- 当地特色 > 网红餐厅 > 连锁品牌
- 人均预算:午餐80以内,晚餐150以内

## 景点
- 不喜欢人多的地方
- 自然风景 > 人文景点
- 不要纯拍照打卡类景点

## 出行习惯
- 上午最早10点出发
- 中午必须午休
- 晚上8点前回酒店
```

---

第三步:发请求的格式

固定一个发消息的格式,小龙虾每次都能准确理解:
```
规划出行
目的地:成都
时间:3月22日到24日,3天2夜
人数:2人
预算:3000元
特殊需求:想吃正宗火锅,不想去太拥挤的地方
```

---

实际返回效果

小龙虾会生成这样的内容:
```
成都 3天2夜行程规划

🏨 推荐酒店
锦江宾馆(武侯区)
均价 380元/晚,含早餐,步行可达武侯祠
→ 携程预订链接:[直达链接]

📅 第一天(3月22日)
10:00 抵达办理入住
14:00 武侯祠(工作日人少,约1.5小时)
19:00 晚餐:蜀大侠火锅
支持大众点评线上预约 → [预约链接]
人均约120元,建议提前1天预约

📅 第二天(3月23日)
10:30 青城山后山徒步
(前山人多,后山清净,门票45元)
13:00 午餐:山脚农家菜
19:00 晚餐:陈麻婆豆腐总店
美团预约 → [预约链接]

💰 预计费用明细
酒店:760元(2晚)
餐饮:680元
景点:180元
交通:约150元
合计:约1770元(剩余预算充足)

⛅ 天气提醒
22-24日多云转小雨,第二天山上温度低建议加件外套。
```

酒店和餐厅的链接是真实可点击的,你直接点过去完成预订就行,整个选择过程都不用动脑。

---

第四步:出发前自动确认

在出发前一天,发一条:
```
确认明天成都行程小龙虾会重新检查:天气有没有变化、景点当天是否正常开放、餐厅预约是否已经成功、酒店入住时间有没有特殊要求,有问题主动提醒你。
进阶:每周五自动推送周末建议
在 config.yaml 加入:
heartbeat:
schedules:
- cron: "0 21 5"
prompt: |
搜索本周末附近适合出行的地方,
结合天气预报生成一份周末出行建议,
包含推荐酒店和餐厅预约入口,
按我的偏好文件筛选后发给我。
每周五晚 9 点自动收到周末建议,完全不用操心。

但是要注意以下几点
酒店和餐厅的预订,小龙虾根据你的喜好帮你做的是搜索、筛选、找到入口,最终点确认付款这一步需要你自己完成。
涉及支付和账号的操作不能代替你完成,这是 OpenClaw 的安全设计,不是技术限制。但选什么这件最费脑子的事已经帮你做完了,你只需要看一眼觉得没问题,点一下链接付款就行。#AIBinance
有人入侵水处理厂,差点把氢氧化钠浓度调到正常值一百倍 结果就因为 一个没更新的软件,差点让一座城市的水变成毒水如果平时你看新闻的话,你就会知道2021年的某个水处理厂,有人远程入侵了控制系统,把水里的氢氧化钠浓度调到了正常值的一百倍,如果不是操作员刚好在盯着屏幕发现了异常,后果很难说。那次入侵用的方式很低级,就是一个没有更新的远程桌面软件。 整个事件没有造成实际伤害,但它说明了一件事 联网的工业设备被黑,不是科幻小说里的场景,是已经发生过的真实事件。 这是中心化系统的本质弱点:有中心,就有靶子。 所有设备连接到同一个云端控制平台,指令从平台下发,数据上传到平台,运营方通过平台管理所有机器人。这个架构很方便,但它把所有的安全风险集中在了一个点上。 一个平台,一个靶子。平台被攻破,连在上面的所有机器人全部沦陷,历史记录一并泄露。。这不是理论的风险,特斯拉、亚马逊的工业系统都出现过类似的安全事件。 @FabricFND 的架构注定让他没有单一的控制中心可以被攻击。 每台机器人的身份和密钥存储在TEE里,这是芯片内部的隔离区域,外部程序包括操作系统都无法访问,就算设备拿走密钥也取不出来。通信层走dVPN,没有中心服务器,攻击者没有办法截获整个网络的流量。 至于链上记录,分布在全球节点上,没有任何实体可以单方面修改已经写入的数据。 没有任何一个实体可以单方面修改已经写入的数据。 这三层设计加在一起,解决的是中心化系统最根本的问题:消灭单点故障。一台机器人被攻破,不会影响其他机器人,不会污染整个网络的数据让攻击者拿到整个系统的控制权。 还有一个我觉得值得说一说 @FabricFND 的所有代码都是公开可查的。很多人觉得开源不安全,因为攻击者也可以研究代码找漏洞。 但安全领域:经过充分审计的开源代码,往往比封闭的私有代码更安全。因为全世界的安全研究者都在看着,漏洞被发现和修复的速度更快,而封闭系统里的漏洞可能被静默利用很久都没有人知道。 比特币运行了十五年,代码完全开源,从来没有被成功攻击过核心层。 当然我要说清楚去中心化不等于无懈可击。机器人在执行任务,传感器数据从采集到上链的这段路径,依然存在被篡改的可能,TEE保护的是密钥,保护不了传感器硬件本身被物理破坏。 Fabric网络里的机器人来自不同厂商,每种硬件配置都是独立的攻击面,安全补丁的覆盖率无法保证百分之百。这些是真实存在的限制,不是用去中心化就能全部消除的。 但对比现有的中心化方案,Fabric的安全设计在架构层面有根本性的优势。现有系统的问题不是某个漏洞没修,是整个架构天然脆弱——有中心就有靶子有靶子就会被打。 Fabric选择拆散了,分布在全球的节点上,攻击者没有单一的攻击入口 $ROBO 的质押机制在安全设计里也有一个间接的作用:运营方把资产质押在#robo 网络里,一旦出现安全事故被判定为运营方责任,质押会被削减。 这让运营方有强烈的经济动机去维护自己设备的安全,而不是把安全责任推给平台。 那个水处理厂后来升级了安全系统,代价是效率下降。中心化系统的安全升级,通常都要在安全和效率之间做取舍。 Fabric从一开始就把安全嵌进了基础设施里,不需要每次出了事之后再打补丁,这是它和现有方案最根本的区别。

有人入侵水处理厂,差点把氢氧化钠浓度调到正常值一百倍 结果就因为 一个没更新的软件,差点让一座城市的水变成毒水

如果平时你看新闻的话,你就会知道2021年的某个水处理厂,有人远程入侵了控制系统,把水里的氢氧化钠浓度调到了正常值的一百倍,如果不是操作员刚好在盯着屏幕发现了异常,后果很难说。那次入侵用的方式很低级,就是一个没有更新的远程桌面软件。
整个事件没有造成实际伤害,但它说明了一件事
联网的工业设备被黑,不是科幻小说里的场景,是已经发生过的真实事件。
这是中心化系统的本质弱点:有中心,就有靶子。

所有设备连接到同一个云端控制平台,指令从平台下发,数据上传到平台,运营方通过平台管理所有机器人。这个架构很方便,但它把所有的安全风险集中在了一个点上。
一个平台,一个靶子。平台被攻破,连在上面的所有机器人全部沦陷,历史记录一并泄露。。这不是理论的风险,特斯拉、亚马逊的工业系统都出现过类似的安全事件。

@Fabric Foundation 的架构注定让他没有单一的控制中心可以被攻击。

每台机器人的身份和密钥存储在TEE里,这是芯片内部的隔离区域,外部程序包括操作系统都无法访问,就算设备拿走密钥也取不出来。通信层走dVPN,没有中心服务器,攻击者没有办法截获整个网络的流量。

至于链上记录,分布在全球节点上,没有任何实体可以单方面修改已经写入的数据。
没有任何一个实体可以单方面修改已经写入的数据。

这三层设计加在一起,解决的是中心化系统最根本的问题:消灭单点故障。一台机器人被攻破,不会影响其他机器人,不会污染整个网络的数据让攻击者拿到整个系统的控制权。

还有一个我觉得值得说一说

@Fabric Foundation 的所有代码都是公开可查的。很多人觉得开源不安全,因为攻击者也可以研究代码找漏洞。
但安全领域:经过充分审计的开源代码,往往比封闭的私有代码更安全。因为全世界的安全研究者都在看着,漏洞被发现和修复的速度更快,而封闭系统里的漏洞可能被静默利用很久都没有人知道。
比特币运行了十五年,代码完全开源,从来没有被成功攻击过核心层。

当然我要说清楚去中心化不等于无懈可击。机器人在执行任务,传感器数据从采集到上链的这段路径,依然存在被篡改的可能,TEE保护的是密钥,保护不了传感器硬件本身被物理破坏。
Fabric网络里的机器人来自不同厂商,每种硬件配置都是独立的攻击面,安全补丁的覆盖率无法保证百分之百。这些是真实存在的限制,不是用去中心化就能全部消除的。

但对比现有的中心化方案,Fabric的安全设计在架构层面有根本性的优势。现有系统的问题不是某个漏洞没修,是整个架构天然脆弱——有中心就有靶子有靶子就会被打。
Fabric选择拆散了,分布在全球的节点上,攻击者没有单一的攻击入口

$ROBO 的质押机制在安全设计里也有一个间接的作用:运营方把资产质押在#robo 网络里,一旦出现安全事故被判定为运营方责任,质押会被削减。
这让运营方有强烈的经济动机去维护自己设备的安全,而不是把安全责任推给平台。

那个水处理厂后来升级了安全系统,代价是效率下降。中心化系统的安全升级,通常都要在安全和效率之间做取舍。
Fabric从一开始就把安全嵌进了基础设施里,不需要每次出了事之后再打补丁,这是它和现有方案最根本的区别。
公开的公开,私密的私密 透明在商业环境里不是优点,是致命缺陷今天跟发小去楼下那个新开的洗浴中心,洗到一半他人不见了。我在休息大厅等了挺久没看到人,就去问服务员,说见过我朋友吗。服务员说去客房了。我说那我去找他,他拦住我说客房是私密空间,不能随便进。 我当时觉得这个规则很合理 大堂是公开的,谁都能进都能看见;客房是私密的,外人无权进入但服务员知道你在哪个房间,紧急情况可以联系到你。两套规则同时运行。 $NIGHT 所在的@MidnightNetwork ,白皮书里有一个设计叫双公私状态账本在区块链上做着类似的事情 现有公链的问题是:全量公开。你在以太坊上做任何事,发送方接收方金额又或者时间戳,全部躺在公开账本上可查。这对审计友好,但对商业应用是灾难。一个企业把供应链合同放到链上执行,竞争对手第二天就能看到它跟谁合作、付了多少钱、合同周期多长。 这种透明度在商业环境里不是优点,是致命缺陷。 Midnight把账本拆成两条平行轨道。公开状态轨道上的数据对所有人可见,包括#night 代币的转账记录、治理投票、共识数据,这些东西需要透明才能建立信任。 私密状态轨道上的数据只有相关方能看到,用ZK证明来验证合法性——验证者能确认这笔交易是合法的,但看不到交易内容本身。 这两条轨道不是两条链,而是同一条链上的两种数据处理方式。开发者用Compact语言写合约的时候,可以精确控制哪些数据走公开轨道,哪些走私密轨道。 一个医疗应用可以把患者身份信息放在私密状态里,把合规证明放在公开状态里,监管方验证合规不需要看到患者数据,患者数据不需要上公开账本。 我觉得这个设计真正解决的问题,是区块链一直以来的一个根本矛盾:去中心化需要透明来建立信任,但商业应用需要隐私来保护数据。 这两个需求在单一状态账本上是互相冲突的,你只能选一个。Midnight的双轨设计绕开了这个非此即彼 需要透明的东西透明,需要私密的东西私密,由应用开发者根据具体场景决定 当然这个设计在实际执行中有很多细节需要处理。私密状态的数据存在哪里?白皮书里说私有数据存在用户本地机器上。这意味着如果用户本地数据丢失,对应的私密状态可能无法恢复 链上存的是ZK证明,不是原始数据,证明可以验证合法性,但找不回原始内容。这个数据主权的设计对用户是好事,但也意味着用户需要自己负责数据备份,这个责任转移在普通用户那里会不会变成障碍,是我目前没想清楚的地方。 还有一个问题:私密状态和公开状态之间的交互怎么处理?一笔涉及私密数据的交易,如果需要触发公开状态的变化,中间的验证逻辑怎么保证不泄露私密内容? 白皮书里说用ZK证明来桥接,证明私密数据满足某个条件,然后触发公开状态更新,整个过程不暴露私密内容本身。但实际实现的复杂度很高,测试网上跑起来是一回事,生产环境里大规模使用是另一回事。 回到洗浴中心。我发小在客房里干什么,服务员不知道我也不知道,但他在不在这栋楼里,服务员知道。这个知道他在,但不知道他在做什么的状态,就是Midnight双公私账本在做的事。

公开的公开,私密的私密 透明在商业环境里不是优点,是致命缺陷

今天跟发小去楼下那个新开的洗浴中心,洗到一半他人不见了。我在休息大厅等了挺久没看到人,就去问服务员,说见过我朋友吗。服务员说去客房了。我说那我去找他,他拦住我说客房是私密空间,不能随便进。

我当时觉得这个规则很合理
大堂是公开的,谁都能进都能看见;客房是私密的,外人无权进入但服务员知道你在哪个房间,紧急情况可以联系到你。两套规则同时运行。

$NIGHT 所在的@MidnightNetwork ,白皮书里有一个设计叫双公私状态账本在区块链上做着类似的事情

现有公链的问题是:全量公开。你在以太坊上做任何事,发送方接收方金额又或者时间戳,全部躺在公开账本上可查。这对审计友好,但对商业应用是灾难。一个企业把供应链合同放到链上执行,竞争对手第二天就能看到它跟谁合作、付了多少钱、合同周期多长。
这种透明度在商业环境里不是优点,是致命缺陷。

Midnight把账本拆成两条平行轨道。公开状态轨道上的数据对所有人可见,包括#night 代币的转账记录、治理投票、共识数据,这些东西需要透明才能建立信任。
私密状态轨道上的数据只有相关方能看到,用ZK证明来验证合法性——验证者能确认这笔交易是合法的,但看不到交易内容本身。

这两条轨道不是两条链,而是同一条链上的两种数据处理方式。开发者用Compact语言写合约的时候,可以精确控制哪些数据走公开轨道,哪些走私密轨道。

一个医疗应用可以把患者身份信息放在私密状态里,把合规证明放在公开状态里,监管方验证合规不需要看到患者数据,患者数据不需要上公开账本。

我觉得这个设计真正解决的问题,是区块链一直以来的一个根本矛盾:去中心化需要透明来建立信任,但商业应用需要隐私来保护数据。
这两个需求在单一状态账本上是互相冲突的,你只能选一个。Midnight的双轨设计绕开了这个非此即彼
需要透明的东西透明,需要私密的东西私密,由应用开发者根据具体场景决定

当然这个设计在实际执行中有很多细节需要处理。私密状态的数据存在哪里?白皮书里说私有数据存在用户本地机器上。这意味着如果用户本地数据丢失,对应的私密状态可能无法恢复

链上存的是ZK证明,不是原始数据,证明可以验证合法性,但找不回原始内容。这个数据主权的设计对用户是好事,但也意味着用户需要自己负责数据备份,这个责任转移在普通用户那里会不会变成障碍,是我目前没想清楚的地方。

还有一个问题:私密状态和公开状态之间的交互怎么处理?一笔涉及私密数据的交易,如果需要触发公开状态的变化,中间的验证逻辑怎么保证不泄露私密内容?

白皮书里说用ZK证明来桥接,证明私密数据满足某个条件,然后触发公开状态更新,整个过程不暴露私密内容本身。但实际实现的复杂度很高,测试网上跑起来是一回事,生产环境里大规模使用是另一回事。

回到洗浴中心。我发小在客房里干什么,服务员不知道我也不知道,但他在不在这栋楼里,服务员知道。这个知道他在,但不知道他在做什么的状态,就是Midnight双公私账本在做的事。
Prijavite se, če želite raziskati več vsebin
Raziščite najnovejše novice o kriptovalutah
⚡️ Sodelujte v najnovejših razpravah o kriptovalutah
💬 Sodelujte z najljubšimi ustvarjalci
👍 Uživajte v vsebini, ki vas zanima
E-naslov/telefonska številka
Zemljevid spletišča
Nastavitve piškotkov
Pogoji uporabe platforme