Binance Square

tmel0211

0 Suivis
3 Abonnés
1 J’aime
0 Partagé(s)
Tout le contenu
--
其实Crypto行业当前最大的问题不是技术叙事无用,也不是MEME赌场化肆虐,也并非增量资金不足,而要从根本上解决三个“价值错配”问题: 👉谁最值得被奖励?Who deserves to be rewarded? 👉谁抽走了流动性?Who's extracting value? 👉谁是真正的Builder?Who are the real builders?
其实Crypto行业当前最大的问题不是技术叙事无用,也不是MEME赌场化肆虐,也并非增量资金不足,而要从根本上解决三个“价值错配”问题:

👉谁最值得被奖励?Who deserves to be rewarded?
👉谁抽走了流动性?Who's extracting value?
👉谁是真正的Builder?Who are the real builders?
在丽江大理游玩时,和几个一线Builder聊天,都不约而同提到一个感受:当下Crypto一级市场似乎正陷入一个“找不到出路”的多重危机中: 1)叙事彻底无意义化,赌场文化全面占据主导? 其实,真正可怕的不是技术叙事无法Deliver,而是大家直接放弃叙事包装,全面拥抱MEME化的赌场文化。 技术叙事交付慢至少还都是长期主义的事儿,有前期VC轮的创新成本Cover,也有项目方前期构建、测试、主网上线等Roadmap落地的过程,期间的透明化展示能帮助普通用户认清项目的实力形成价值判断。 但现在呢?一切都变成了纯社区运营和背后资金博弈的游戏,交易机会夸张到按天甚至按分钟计。当市场不再围绕技术叙事进行长期建设时,纯MEME交易风险被成倍放大,对绝大多数人而言,这个市场会变得更加凶险。 2)开发者加速流失,技术创新陷入停滞? 数据不会撒谎。据有关数据,Github上活跃的Crypto开发者数量从去年高点下滑了近30%,而同期AI和传统科技公司的工程师招聘Package却在疯狂上涨。 逻辑很简单,当OpenAI、Google、Meta都在AI军备赛中为构建硅基文明抢人的时候,Crypto那点"颠覆互联网"的叙事情怀还能留住多少开发者? 关键是,Crypto经过两三轮Build周期,现在开发者陷入一种创新热情急速衰减的内耗阶段,真正从0到1的技术突破少得可怜。Restaking、Intent、AI Agent等叙事概念火了一轮又一轮,但落地应用呢?PMF在哪?不知为何,大家都在造轮子,却无力,无奈关心轮子能走多远? 原本陷入市场噪音和垃圾时间,大部分人还能有一种信念,Hold住,迟早还会好起来了,而现在呢?Holder在哪里? 3)场外增量吸引力匮乏,Crypto趋向边缘化? Crypto对场外资金和人才的吸引力明显不足,你看看现在的情况:真正的二级山寨季在美股AI市场,真正的一级创新市场在web2AI领域,Crypto对传统VC、顶尖人才的吸引力日益削减,反倒还会扣一顶“投机倒把”的帽子,失去了体面。 究其原因,Crypto除了“发币”这一个金字招牌,还拿不出其他过硬的底牌。ETF虽然带来了机构资金,但那更多是金融工具层面的认可,华尔街资金的资金inflow也只是作为资产配置,跟山寨币市场的挂钩很牵强。 什么场景非Crypto不可?过去Crypto的价值在于为金融创新提供了相对自由的实验空间,但当传统金融机构都开始通过稳定币、ETF等方式拥抱这个市场时,Crypto除了“去中心化”这个技术特性,还能为用户带来哪些不可替代的价值? Note:抛出这个话题仅供讨论,尽管迷茫,至少还愿意相信,真正的出路也许会在某个不远处。保持乐观是最好的助力,不然还能咋!
在丽江大理游玩时,和几个一线Builder聊天,都不约而同提到一个感受:当下Crypto一级市场似乎正陷入一个“找不到出路”的多重危机中:

1)叙事彻底无意义化,赌场文化全面占据主导?

其实,真正可怕的不是技术叙事无法Deliver,而是大家直接放弃叙事包装,全面拥抱MEME化的赌场文化。

技术叙事交付慢至少还都是长期主义的事儿,有前期VC轮的创新成本Cover,也有项目方前期构建、测试、主网上线等Roadmap落地的过程,期间的透明化展示能帮助普通用户认清项目的实力形成价值判断。

但现在呢?一切都变成了纯社区运营和背后资金博弈的游戏,交易机会夸张到按天甚至按分钟计。当市场不再围绕技术叙事进行长期建设时,纯MEME交易风险被成倍放大,对绝大多数人而言,这个市场会变得更加凶险。

2)开发者加速流失,技术创新陷入停滞?

数据不会撒谎。据有关数据,Github上活跃的Crypto开发者数量从去年高点下滑了近30%,而同期AI和传统科技公司的工程师招聘Package却在疯狂上涨。

逻辑很简单,当OpenAI、Google、Meta都在AI军备赛中为构建硅基文明抢人的时候,Crypto那点"颠覆互联网"的叙事情怀还能留住多少开发者?

关键是,Crypto经过两三轮Build周期,现在开发者陷入一种创新热情急速衰减的内耗阶段,真正从0到1的技术突破少得可怜。Restaking、Intent、AI Agent等叙事概念火了一轮又一轮,但落地应用呢?PMF在哪?不知为何,大家都在造轮子,却无力,无奈关心轮子能走多远?

原本陷入市场噪音和垃圾时间,大部分人还能有一种信念,Hold住,迟早还会好起来了,而现在呢?Holder在哪里?

3)场外增量吸引力匮乏,Crypto趋向边缘化?

Crypto对场外资金和人才的吸引力明显不足,你看看现在的情况:真正的二级山寨季在美股AI市场,真正的一级创新市场在web2AI领域,Crypto对传统VC、顶尖人才的吸引力日益削减,反倒还会扣一顶“投机倒把”的帽子,失去了体面。

究其原因,Crypto除了“发币”这一个金字招牌,还拿不出其他过硬的底牌。ETF虽然带来了机构资金,但那更多是金融工具层面的认可,华尔街资金的资金inflow也只是作为资产配置,跟山寨币市场的挂钩很牵强。

什么场景非Crypto不可?过去Crypto的价值在于为金融创新提供了相对自由的实验空间,但当传统金融机构都开始通过稳定币、ETF等方式拥抱这个市场时,Crypto除了“去中心化”这个技术特性,还能为用户带来哪些不可替代的价值?

Note:抛出这个话题仅供讨论,尽管迷茫,至少还愿意相信,真正的出路也许会在某个不远处。保持乐观是最好的助力,不然还能咋!
又一个扛着零代码开发大旗的项目出现了,甚至声称要让人“说话造dApp”? 概念听起来特别炫酷,虽说零代码开发过于老生常谈了,但 @infinityg_ai 还拿到了Frachtis Ventures, MarbleX, MH Ventures, Kucoin Ventures, Animoca Brands等机构200万美元的融资,那么,他的技术方案有啥特别的? ——产品实操体验分享(如下图) 说实话,一开始我对这种“说话造dApp”的概念还是持怀疑态度的。但抱着试一试的心态,用其Agentic IDE测试了一个相对复杂的需求——构建AI Agent项目分析Dashboard。结果还真让我有点意外,AI基本理解了需求中的投研逻辑、数据结构,还生成了包含融资趋势图表、市场情绪分析等功能模块的应用。虽然细节还需要调整,但整体框架确实能用。 ——AI Agent零代码开发需求一直刚性 原本要开发个像样的AI Agent,开发者至少要掌握LLM接口调用、智能合约开发、前端框架、钱包集成、多链部署等7-8项技术栈。关键是,这些技术还在快速迭代,学习成本极高。 这样一来,导致整个AI Agent市场出现了明显的供需错配:有创意的内容创作者、设计师想法一大堆,但全卡在技术实现上;有技术能力的程序员虽然能开发,但往往缺乏对用户场景的深度理解。这种断层直接限制了AI Agent应用的多样性和创新速度。 这就是为何,“降低开发门槛”一直是AI Agent赛道最基础的服务,Infinity Ground瞄准的正是这个核心痛点。 ——基于EVM的技术创新组合 Infinity Ground当前主要基于EVM生态构建,重点深耕BNB Chain,未来计划扩展到全链支持。其核心创新在于Agentic IDE结合RAG技术的设计思路,这并非简单的模版拼接。 当用户说"做个DeFi借贷协议",系统会自动检索Compound、Aave这些成功案例的核心逻辑,理解抵押机制、利率模型、清算规则等复杂业务场景,然后生成符合最佳实践的智能合约代码。 这种Creator Copilot配合RAG Engine的组合不只是技术堆叠,更是开发模式的革新。传统开发需要程序员先理解需求,再转化为代码,最后部署测试,整个链条冗长且容易出错。而Infinity Ground试图让用户直接与AI对话,描述想法就能得到可运行的应用,这种交互模式如果真正成熟,将大幅提升开发效率。 从已有案例看,Love Terminal、Jump Jennie这些项目确实在平台上成功运行,说明技术框架的可行性已经得到初步验证。 ——多链+合作的组合拳生态策略 值得关注的是Infinity Ground与https://t.co/MQJmq7LErr的深度合作。Four作为知名的meme文化平台,其社区影响力和用户基础为Infinity Ground提供了重要的市场推广渠道。通过这种合作,普通用户能够更轻松地创建meme主题的AI Agent应用。 此外,平台还与Base、BNB Chain等不同链都进行了深度合作。BNB Chain作为主攻方向,提供低成本高效率的应用环境。作为MVB第八季加速器项目,不仅获得官方资源扶持,还能直接对接BSC生态的庞大用户群体。 在生态合作方面,Infinity Ground也与 @myshell_ai 保持着良好的市场和生态协作关系,共同推动AI Agent开发工具的普及和应用。 以上。 零代码开发在Web2领域已经有了成功先例,Webflow让设计师能直接"画"出网站,Figma让团队协作变得像搭积木一样简单。这些平台都证明了降低技术门槛能释放巨大的创造力。Web3环境虽然复杂度更高,但基础逻辑是相通的:让更多人参与创造。 尤其是在大部分launchpad都在玩资产发行叙事的背景下,也是时候从“发币”转向“造应用”了。 就像早期的NFT市场,平台方只管发行工具,但真正的艺术创作还是依赖少数专业团队。而AI Agent赛道逻辑也一样,通过降低开发门槛,让普通创作者也能“生产”AI Agent应用,才能迎来AI Agent的UGC内容创作大爆发阶段。
又一个扛着零代码开发大旗的项目出现了,甚至声称要让人“说话造dApp”?

概念听起来特别炫酷,虽说零代码开发过于老生常谈了,但 @infinityg_ai 还拿到了Frachtis Ventures, MarbleX, MH Ventures, Kucoin Ventures, Animoca Brands等机构200万美元的融资,那么,他的技术方案有啥特别的?

——产品实操体验分享(如下图)

说实话,一开始我对这种“说话造dApp”的概念还是持怀疑态度的。但抱着试一试的心态,用其Agentic IDE测试了一个相对复杂的需求——构建AI Agent项目分析Dashboard。结果还真让我有点意外,AI基本理解了需求中的投研逻辑、数据结构,还生成了包含融资趋势图表、市场情绪分析等功能模块的应用。虽然细节还需要调整,但整体框架确实能用。

——AI Agent零代码开发需求一直刚性

原本要开发个像样的AI Agent,开发者至少要掌握LLM接口调用、智能合约开发、前端框架、钱包集成、多链部署等7-8项技术栈。关键是,这些技术还在快速迭代,学习成本极高。

这样一来,导致整个AI Agent市场出现了明显的供需错配:有创意的内容创作者、设计师想法一大堆,但全卡在技术实现上;有技术能力的程序员虽然能开发,但往往缺乏对用户场景的深度理解。这种断层直接限制了AI Agent应用的多样性和创新速度。

这就是为何,“降低开发门槛”一直是AI Agent赛道最基础的服务,Infinity Ground瞄准的正是这个核心痛点。

——基于EVM的技术创新组合

Infinity Ground当前主要基于EVM生态构建,重点深耕BNB Chain,未来计划扩展到全链支持。其核心创新在于Agentic IDE结合RAG技术的设计思路,这并非简单的模版拼接。

当用户说"做个DeFi借贷协议",系统会自动检索Compound、Aave这些成功案例的核心逻辑,理解抵押机制、利率模型、清算规则等复杂业务场景,然后生成符合最佳实践的智能合约代码。

这种Creator Copilot配合RAG Engine的组合不只是技术堆叠,更是开发模式的革新。传统开发需要程序员先理解需求,再转化为代码,最后部署测试,整个链条冗长且容易出错。而Infinity Ground试图让用户直接与AI对话,描述想法就能得到可运行的应用,这种交互模式如果真正成熟,将大幅提升开发效率。

从已有案例看,Love Terminal、Jump Jennie这些项目确实在平台上成功运行,说明技术框架的可行性已经得到初步验证。

——多链+合作的组合拳生态策略

值得关注的是Infinity Ground与https://t.co/MQJmq7LErr的深度合作。Four作为知名的meme文化平台,其社区影响力和用户基础为Infinity Ground提供了重要的市场推广渠道。通过这种合作,普通用户能够更轻松地创建meme主题的AI Agent应用。

此外,平台还与Base、BNB Chain等不同链都进行了深度合作。BNB Chain作为主攻方向,提供低成本高效率的应用环境。作为MVB第八季加速器项目,不仅获得官方资源扶持,还能直接对接BSC生态的庞大用户群体。

在生态合作方面,Infinity Ground也与 @myshell_ai 保持着良好的市场和生态协作关系,共同推动AI Agent开发工具的普及和应用。

以上。

零代码开发在Web2领域已经有了成功先例,Webflow让设计师能直接"画"出网站,Figma让团队协作变得像搭积木一样简单。这些平台都证明了降低技术门槛能释放巨大的创造力。Web3环境虽然复杂度更高,但基础逻辑是相通的:让更多人参与创造。

尤其是在大部分launchpad都在玩资产发行叙事的背景下,也是时候从“发币”转向“造应用”了。

就像早期的NFT市场,平台方只管发行工具,但真正的艺术创作还是依赖少数专业团队。而AI Agent赛道逻辑也一样,通过降低开发门槛,让普通创作者也能“生产”AI Agent应用,才能迎来AI Agent的UGC内容创作大爆发阶段。
数据标注这门“苦活累活”,正在悄悄变成香饽饽?这个由Polychain领投,获得超过1,120万美元融资的 @OpenledgerHQ ,用PoA+infini-gram的独特机制,瞄准的正是“数据价值分配”这个被长期忽视的痛点。来,从技术视角科普下: 1)说实话,当前AI行业最大的"原罪"就是数据价值分配的不公。OpenLedger的PoA(贡献证明)要做的,就是给数据贡献建立一套"版权追踪系统"。 具体而言:数据贡献者将内容上传到特定领域的DataNets,每个数据点都会与贡献者元数据和内容哈希一起被永久记录。 当模型基于这些数据集训练后,归因过程会在推理阶段进行也就是模型生成输出的时刻。PoA通过分析匹配范围或影响分数来追踪哪些数据点影响了该输出,这些记录决定了每个贡献者数据的比例影响。 当模型通过推理产生费用时,PoA确保利润根据每个贡献者的影响准确分配——创建了一个透明、公平且链上的奖励机制。 换句话说,PoA解决的是数据经济学的根本矛盾。过去的逻辑很简单粗暴——AI公司免费获取海量数据,然后靠模型商业化赚得盆满钵满,数据贡献者却什么都拿不到。但PoA通过技术手段实现了"数据私有化",让每个数据点都能产生明确的经济价值。 我觉得,这种从"白嫖模式"到"按劳分配"的转换机制一旦跑通,数据贡献的激励逻辑就完全变了。 而且,PoA采用了分层策略来解决不同规模模型的归因问题:几百万参数的小模型,可以通过分析模型影响函数来估算每个数据点的影响程度,计算量还能勉强承受,而中大型参数模型用这种方法在计算上变得不可行且低效。这时候就必须祭出Infini-gram这个大杀器了。 2)问题来了,何为infini-gram技术?它要解决的问题听起来就很变态:在中大型参数的黑盒模型中,精确追踪每个输出Token的数据来源。 传统归因方法主要靠分析模型影响函数,但在大模型面前基本歇菜。原因很简单:模型越大,内部计算越复杂,分析成本就指数级增长,在计算上变得不可行且低效。这在商业应用中完全不现实。 Infini-gram完全换了个思路:既然模型内部太复杂,那就直接在原始数据中找匹配。它基于后缀数组构建索引,用动态选择的最长匹配后缀替代传统的固定窗口n-gram。简单理解,就是当模型输出某个序列时,Infini-gram会为每个Token上下文识别训练数据中最长的精确匹配。 这样一来带来的性能数据着实很惊艳,1.4万亿Token数据集,查询只需20毫秒,存储每Token仅7字节。更关键的是无需分析模型内部结构,无需复杂计算,就能精确归因。对那些视模型为商业机密的AI公司来说,这简直是量身定制的解决方案。 要知道,市面上的数据归因方案要么效率低下,要么精度不够,要么需要访问模型内部。Infini-gram算是在这三个维度都找到了平衡点, 3)除此之外,我感觉OpenLedger提出的dataNets链上数据集概念特别新潮。不同于传统数据交易的一锤子买卖,DataNets让数据贡献者可持续享有数据被使用时在推理中的收益分成。 过去数据标注是苦差事,收益微薄且一次性。现在变成了持续收益的资产,激励逻辑完全不同。 当大部分AI+Crypto项目还在做算力租赁、模型训练这些相对成熟的方向时,OpenLedger选择了数据归因这块最硬的骨头。这套技术栈可能会重新定义AI数据的供给端。 毕竟在数据质量为王的时代,谁能解决数据价值分配问题,谁就能吸引到最优质的数据资源。 以上。 总的来说,OpenLedgerPoA + Infini-gram的组合不仅解决了技术难题,更重要的是为整个行业提供了全新的价值分配逻辑。 在算力军备赛逐渐降温、数据质量竞争愈发激烈的当下,这类技术路线肯定不会是孤品。这个赛道会出现多种方案并行竞争的局面——有的专注归因精度,有的主打成本效率,有的则在易用性上做文章。各自都在探索数据价值分配的最优解。 最终哪家才能跑出来,说到底还是要看能不能真正吸引到足够多的数据提供者和开发者。
数据标注这门“苦活累活”,正在悄悄变成香饽饽?这个由Polychain领投,获得超过1,120万美元融资的 @OpenledgerHQ ,用PoA+infini-gram的独特机制,瞄准的正是“数据价值分配”这个被长期忽视的痛点。来,从技术视角科普下:

1)说实话,当前AI行业最大的"原罪"就是数据价值分配的不公。OpenLedger的PoA(贡献证明)要做的,就是给数据贡献建立一套"版权追踪系统"。

具体而言:数据贡献者将内容上传到特定领域的DataNets,每个数据点都会与贡献者元数据和内容哈希一起被永久记录。

当模型基于这些数据集训练后,归因过程会在推理阶段进行也就是模型生成输出的时刻。PoA通过分析匹配范围或影响分数来追踪哪些数据点影响了该输出,这些记录决定了每个贡献者数据的比例影响。

当模型通过推理产生费用时,PoA确保利润根据每个贡献者的影响准确分配——创建了一个透明、公平且链上的奖励机制。

换句话说,PoA解决的是数据经济学的根本矛盾。过去的逻辑很简单粗暴——AI公司免费获取海量数据,然后靠模型商业化赚得盆满钵满,数据贡献者却什么都拿不到。但PoA通过技术手段实现了"数据私有化",让每个数据点都能产生明确的经济价值。

我觉得,这种从"白嫖模式"到"按劳分配"的转换机制一旦跑通,数据贡献的激励逻辑就完全变了。

而且,PoA采用了分层策略来解决不同规模模型的归因问题:几百万参数的小模型,可以通过分析模型影响函数来估算每个数据点的影响程度,计算量还能勉强承受,而中大型参数模型用这种方法在计算上变得不可行且低效。这时候就必须祭出Infini-gram这个大杀器了。

2)问题来了,何为infini-gram技术?它要解决的问题听起来就很变态:在中大型参数的黑盒模型中,精确追踪每个输出Token的数据来源。

传统归因方法主要靠分析模型影响函数,但在大模型面前基本歇菜。原因很简单:模型越大,内部计算越复杂,分析成本就指数级增长,在计算上变得不可行且低效。这在商业应用中完全不现实。

Infini-gram完全换了个思路:既然模型内部太复杂,那就直接在原始数据中找匹配。它基于后缀数组构建索引,用动态选择的最长匹配后缀替代传统的固定窗口n-gram。简单理解,就是当模型输出某个序列时,Infini-gram会为每个Token上下文识别训练数据中最长的精确匹配。

这样一来带来的性能数据着实很惊艳,1.4万亿Token数据集,查询只需20毫秒,存储每Token仅7字节。更关键的是无需分析模型内部结构,无需复杂计算,就能精确归因。对那些视模型为商业机密的AI公司来说,这简直是量身定制的解决方案。

要知道,市面上的数据归因方案要么效率低下,要么精度不够,要么需要访问模型内部。Infini-gram算是在这三个维度都找到了平衡点,

3)除此之外,我感觉OpenLedger提出的dataNets链上数据集概念特别新潮。不同于传统数据交易的一锤子买卖,DataNets让数据贡献者可持续享有数据被使用时在推理中的收益分成。

过去数据标注是苦差事,收益微薄且一次性。现在变成了持续收益的资产,激励逻辑完全不同。

当大部分AI+Crypto项目还在做算力租赁、模型训练这些相对成熟的方向时,OpenLedger选择了数据归因这块最硬的骨头。这套技术栈可能会重新定义AI数据的供给端。

毕竟在数据质量为王的时代,谁能解决数据价值分配问题,谁就能吸引到最优质的数据资源。

以上。

总的来说,OpenLedgerPoA + Infini-gram的组合不仅解决了技术难题,更重要的是为整个行业提供了全新的价值分配逻辑。

在算力军备赛逐渐降温、数据质量竞争愈发激烈的当下,这类技术路线肯定不会是孤品。这个赛道会出现多种方案并行竞争的局面——有的专注归因精度,有的主打成本效率,有的则在易用性上做文章。各自都在探索数据价值分配的最优解。

最终哪家才能跑出来,说到底还是要看能不能真正吸引到足够多的数据提供者和开发者。
$ZKJ 和 $KOGE 双双被操纵暴跌,大批在币安Alpha平台刷交易量的散户梦中惊醒。原本刷点交易量赚个空投"利息",结果最后连本金都丢了。这背后到底是怎么回事?谁应该为此次灾祸买单?我试着深层次盘道一下: 1)先来吃瓜说说到底咋回事?币安推出Alpha平台刷交易量博空投活动。ZKJ和KOGE作为热门项目上了Alpha,大批散户冲着空投预期开始疯狂刷量。 然而,就在Alpha活动热火朝天、散户资金大量涌入的时候,某个大户从OKX提出约360万美元的代币,直接在市场上开砸。ZKJ先崩盘,由于Koge池子的高相关性,KOGE被动跟跌,散户看到暴跌开始恐慌抛售,进一步加速了崩盘循环。最终,那些在币安Alpha“勤勤恳恳”刷量等空投的用户,不但没等到收益,反而连本金都亏光了。 2)这个“作恶过程中”到底谁该买单呢? 项目方可以说:我们没让大户砸盘,这是市场行为,但TGE估值2B的大项目,流动性竟然可以被个别大户操控,简直匪夷所思; 砸盘大户可以说说:我的钱我自由处理,亏钱活该,但如此精妙时机出手明知道会造成连锁崩盘,试问居心何在; 币安Alpha平台也可以说,我们只是提供交易平台,风险用户自担,但没有币安的平台背书,用户怎么敢斥巨资参与呢,现在出了事咋可能撇清关系; 你看,这条链条上的利益关联方似乎都有理由撇开关系,唯独散户一脸懵逼:这火热的Alpha Summer怎么还没开始就结束了?我的本金呢? 3)那问题到底出在了哪里?在我看来,表面上看似一场偶然的市场风险,实际上是一场有预谋的系统性收割: 项目方“设计了”相关性陷阱,大户选择了精准打击“时机”,币安提供了"合法"收割平台,而散户承担了所有损失。 具体而言: 币安Alpha在竞争焦虑下出现了战略失误。 眼看着OKX在Web3 DEX和钱包领域攻城略地,自己在链上交易份额被蚕食,急了。Alpha本来设计得挺好的——给项目方一个测试期,给用户一个观察期,给自己一个风险控制期。 但币安显然高估了自己的风控能力,更低估了市场参与者的"恶意"。为了快速抢回市场份额,硬是把Alpha从"观察台"改造成了"主战场"。说白了,原来Alpha不是为了成就更好的币安,而是要打造一个链上新"币安"? 更要命的是,币安在设计Alpha机制时过于理想化了市场环境。 币安设想的"三方共赢"模式听起来很美好:项目方通过Alpha测试市场,用户刷量获得收益,平台赚取手续费?这套逻辑听起来很美好,但建立在一个致命假设上——所有人都会"按剧本演出"。现实呢?在这种流动性脆弱的小币种市场,任何人为制造的热度都是虚假繁荣,一捅就破。 币安似乎忘记了Alpha平台在提供便利的同时,也为恶意操作者创造了完美的"猎场"——毕竟有币安背书增加可信度,有激励机制聚集散户资金,有充足的流动性可供收割,齐活了。 这套组合拳下来,Alpha——原本一个用来"风险隔离"的观察区,硬生生成了大户们"精准收割"的温床。 说到底,整个事件暴露了当前市场生态的结构性缺陷, 每个参与方都在追求短期利益最大化:项目方想快速退出流动性套现,大户想精准套利,交易平台想增加交易量和收入,散户总想抢到超额收益。大家都在打各自的小算盘,最终造成了一次"完美"的多方博弈败局。 但毕竟这事发生在币安平台上,一家全球第一大交易所,原本应该是整个行业的“定海神针”,结果却成了这场收割剧的主舞台。 币安这次的Alpha策略,本质上是用自己的品牌信誉为别人的收割行为做担保。想要市场份额,想要交易量,想要手续费收入,结果就是搬起石头砸了自己的脚。 哎,可叹,如果“头部玩家”都这样乱来,没有人为维护秩序负责,何时才能迎来行业真正的成熟,答案恐怕比我们想象的更遥远。
$ZKJ 和 $KOGE 双双被操纵暴跌,大批在币安Alpha平台刷交易量的散户梦中惊醒。原本刷点交易量赚个空投"利息",结果最后连本金都丢了。这背后到底是怎么回事?谁应该为此次灾祸买单?我试着深层次盘道一下:

1)先来吃瓜说说到底咋回事?币安推出Alpha平台刷交易量博空投活动。ZKJ和KOGE作为热门项目上了Alpha,大批散户冲着空投预期开始疯狂刷量。

然而,就在Alpha活动热火朝天、散户资金大量涌入的时候,某个大户从OKX提出约360万美元的代币,直接在市场上开砸。ZKJ先崩盘,由于Koge池子的高相关性,KOGE被动跟跌,散户看到暴跌开始恐慌抛售,进一步加速了崩盘循环。最终,那些在币安Alpha“勤勤恳恳”刷量等空投的用户,不但没等到收益,反而连本金都亏光了。

2)这个“作恶过程中”到底谁该买单呢?

项目方可以说:我们没让大户砸盘,这是市场行为,但TGE估值2B的大项目,流动性竟然可以被个别大户操控,简直匪夷所思;

砸盘大户可以说说:我的钱我自由处理,亏钱活该,但如此精妙时机出手明知道会造成连锁崩盘,试问居心何在;

币安Alpha平台也可以说,我们只是提供交易平台,风险用户自担,但没有币安的平台背书,用户怎么敢斥巨资参与呢,现在出了事咋可能撇清关系;

你看,这条链条上的利益关联方似乎都有理由撇开关系,唯独散户一脸懵逼:这火热的Alpha Summer怎么还没开始就结束了?我的本金呢?

3)那问题到底出在了哪里?在我看来,表面上看似一场偶然的市场风险,实际上是一场有预谋的系统性收割:

项目方“设计了”相关性陷阱,大户选择了精准打击“时机”,币安提供了"合法"收割平台,而散户承担了所有损失。

具体而言:

币安Alpha在竞争焦虑下出现了战略失误。 眼看着OKX在Web3 DEX和钱包领域攻城略地,自己在链上交易份额被蚕食,急了。Alpha本来设计得挺好的——给项目方一个测试期,给用户一个观察期,给自己一个风险控制期。

但币安显然高估了自己的风控能力,更低估了市场参与者的"恶意"。为了快速抢回市场份额,硬是把Alpha从"观察台"改造成了"主战场"。说白了,原来Alpha不是为了成就更好的币安,而是要打造一个链上新"币安"?

更要命的是,币安在设计Alpha机制时过于理想化了市场环境。 币安设想的"三方共赢"模式听起来很美好:项目方通过Alpha测试市场,用户刷量获得收益,平台赚取手续费?这套逻辑听起来很美好,但建立在一个致命假设上——所有人都会"按剧本演出"。现实呢?在这种流动性脆弱的小币种市场,任何人为制造的热度都是虚假繁荣,一捅就破。

币安似乎忘记了Alpha平台在提供便利的同时,也为恶意操作者创造了完美的"猎场"——毕竟有币安背书增加可信度,有激励机制聚集散户资金,有充足的流动性可供收割,齐活了。

这套组合拳下来,Alpha——原本一个用来"风险隔离"的观察区,硬生生成了大户们"精准收割"的温床。

说到底,整个事件暴露了当前市场生态的结构性缺陷, 每个参与方都在追求短期利益最大化:项目方想快速退出流动性套现,大户想精准套利,交易平台想增加交易量和收入,散户总想抢到超额收益。大家都在打各自的小算盘,最终造成了一次"完美"的多方博弈败局。

但毕竟这事发生在币安平台上,一家全球第一大交易所,原本应该是整个行业的“定海神针”,结果却成了这场收割剧的主舞台。

币安这次的Alpha策略,本质上是用自己的品牌信誉为别人的收割行为做担保。想要市场份额,想要交易量,想要手续费收入,结果就是搬起石头砸了自己的脚。

哎,可叹,如果“头部玩家”都这样乱来,没有人为维护秩序负责,何时才能迎来行业真正的成熟,答案恐怕比我们想象的更遥远。
大家都说以太坊Rollup-Centric战略貌似失败了?并深恶痛疾这种L1-L2-L3的套娃游戏,但有意思的是,过去一年AI赛道的发展也走了一遍L1—L2—L3的快速演化。对比下,究竟问题出在哪里? 1)AI的分层逻辑是,每层都在解决上层无法解决的核心问题。 比方说,L1的LLMs解决了语言理解和生成的基础能力,但逻辑推理和数学计算确实是硬伤;于是乎到了L2,推理模型专门攻克这个短板,DeepSeek R1能做复杂数学题和代码调试,直接补齐了LLMs的认知盲区;完成这些铺垫之后,L3的AI Agent就很自然地把前两层能力整合起来,让AI从被动回答变成主动执行,能自己规划任务、调用工具、处理复杂workflow。 你看,这种分层是“能力递进”:L1打地基,L2补短板,L3做整合。每一层都在前一层基础上产生质的飞跃,用户能明显感受到AI变得更聪明、更有用。 2)Crypto的分层逻辑是,每层都在为前一层的问题打补丁,却不幸带来了全新更大的问题。 比如,L1公链性能不够,很自然想到用layer2的扩容方案,但内卷了一波layer2 Infra潮之后貌似Gas低了、TPS累加提升了、但流动性却分散了,生态应用还持续匮乏,使得过多的layer2 infra反倒成了大问题。于是乎开始做layer3垂直应用链,但应用链却各自为政,无法享受infra通用链的生态协同效应,用户体验反而更加碎片化了。 这样一来,这种分层就成了“问题转移”:L1有瓶颈,L2打补丁,L3混乱且分散。每一层都只是把问题从一个地方转移到另一个地方,仿佛所有的解决方案都只是为了“发币”这一件事展开。 话到此,大家都应该明白造成这种悖论的症结是啥了:AI分层是被技术竞争驱动的,OpenAI、Anthropic、DeepSeek都在拼命卷模型能力;Crypto分层是被Tokenomic绑架的,每个L2的核心KPI都是TVL和Token价格。 So,本质上一个在解决技术难题,一个在包装金融产品?孰是孰非可能也没有答案,见仁见智。 当然,这个抽象的类比也没那么绝对,只是觉得二者的发展脉络对比下非常有意思,周末做个思维按摩💆。
大家都说以太坊Rollup-Centric战略貌似失败了?并深恶痛疾这种L1-L2-L3的套娃游戏,但有意思的是,过去一年AI赛道的发展也走了一遍L1—L2—L3的快速演化。对比下,究竟问题出在哪里?

1)AI的分层逻辑是,每层都在解决上层无法解决的核心问题。

比方说,L1的LLMs解决了语言理解和生成的基础能力,但逻辑推理和数学计算确实是硬伤;于是乎到了L2,推理模型专门攻克这个短板,DeepSeek R1能做复杂数学题和代码调试,直接补齐了LLMs的认知盲区;完成这些铺垫之后,L3的AI Agent就很自然地把前两层能力整合起来,让AI从被动回答变成主动执行,能自己规划任务、调用工具、处理复杂workflow。

你看,这种分层是“能力递进”:L1打地基,L2补短板,L3做整合。每一层都在前一层基础上产生质的飞跃,用户能明显感受到AI变得更聪明、更有用。

2)Crypto的分层逻辑是,每层都在为前一层的问题打补丁,却不幸带来了全新更大的问题。

比如,L1公链性能不够,很自然想到用layer2的扩容方案,但内卷了一波layer2 Infra潮之后貌似Gas低了、TPS累加提升了、但流动性却分散了,生态应用还持续匮乏,使得过多的layer2 infra反倒成了大问题。于是乎开始做layer3垂直应用链,但应用链却各自为政,无法享受infra通用链的生态协同效应,用户体验反而更加碎片化了。

这样一来,这种分层就成了“问题转移”:L1有瓶颈,L2打补丁,L3混乱且分散。每一层都只是把问题从一个地方转移到另一个地方,仿佛所有的解决方案都只是为了“发币”这一件事展开。

话到此,大家都应该明白造成这种悖论的症结是啥了:AI分层是被技术竞争驱动的,OpenAI、Anthropic、DeepSeek都在拼命卷模型能力;Crypto分层是被Tokenomic绑架的,每个L2的核心KPI都是TVL和Token价格。

So,本质上一个在解决技术难题,一个在包装金融产品?孰是孰非可能也没有答案,见仁见智。

当然,这个抽象的类比也没那么绝对,只是觉得二者的发展脉络对比下非常有意思,周末做个思维按摩💆。
观察了过去1个月泛AI领域的各种动向,发现一个很有意思的演进逻辑:web2AI从集中化——>分布式,web3AI从概念验证——>实用性。二者正加速融合ing。 1)先看web2AI的发展动态,Apple的本地智能、各种离线AI模型的普及,背后反映的是AI模型正在变得更轻、更便捷。这告诉我们,AI的载体不再局限于大型云服务中心,而是可以部署在手机、边缘设备、甚至IoT终端上。 而,Claude和Gemini通过MCP实现AI-AI对话,这个创新标志着AI正在从单体智能向集群协作转变。 问题来了,当AI的载体变得高度分布式,如何确保这些分散运行的AI实例之间的数据一致性和决策可信度? 这里有一层需求逻辑:技术进步(模型轻量化)→ 部署方式改变(分布式载体)→ 新需求产生(去中心化验证)。 2)再来看web3AI的演进路径,早期的AI Agent项目大多以MEME属性为主,但最近一段时间,市场从单纯launchpad的炒作开始转向更底层架构的AI layer1基础设施系统性构建。 开始有项目在算力、推理、数据标注、存储等各个功能层面进行专业化分工。比如,我们此前分析过 @ionet 专注去中心化算力聚合,Bittensor构建去中心化推理网络, @flock_io 在联邦学习和边缘计算方面发力, @SaharaLabsAI 在分布式数据激励方向, @Mira_Network 通过分布式共识机制降低AI幻觉等等; 这里又有一个逐渐清晰的供给逻辑:MEME炒作降温(泡沫出清)→ 基础设施需求显现(刚需驱动)→ 专业化分工出现(效率优化)→ 生态协同效应(网络价值)。 你看,web2AI需求的“短板”正在逐渐靠近web3AI可供给的“长处”。web2AI和web3AI的演进路径正逐步实现交汇。 web2AI在技术上越来越成熟,但缺乏经济激励和治理机制;web3AI在经济模型上有创新,但技术实现却落后于web2。二者融合正好可以优势互补。 事实上,二者的融合正在催生出一个以链下“高效计算”和链上“快速验证”的AI组合新范式。 在这个范式下,AI不再只是工具,而是具备经济身份的参与者;算力、数据、推理等资源重心会在线下,但同样需要一个轻量化的验证网络。 这种组合很巧妙:既保持了线下计算的高效性和灵活性,同时通过轻量化的链上验证确保了可信度和透明度。 Note:到现在总有人一提web3AI就觉得是伪命题,但如果细心感受并抱有一定前瞻洞察力的话,就知道,以AI的快速发展速度从来都不会区分web2和web3,但人的偏见会。
观察了过去1个月泛AI领域的各种动向,发现一个很有意思的演进逻辑:web2AI从集中化——>分布式,web3AI从概念验证——>实用性。二者正加速融合ing。

1)先看web2AI的发展动态,Apple的本地智能、各种离线AI模型的普及,背后反映的是AI模型正在变得更轻、更便捷。这告诉我们,AI的载体不再局限于大型云服务中心,而是可以部署在手机、边缘设备、甚至IoT终端上。

而,Claude和Gemini通过MCP实现AI-AI对话,这个创新标志着AI正在从单体智能向集群协作转变。

问题来了,当AI的载体变得高度分布式,如何确保这些分散运行的AI实例之间的数据一致性和决策可信度?

这里有一层需求逻辑:技术进步(模型轻量化)→ 部署方式改变(分布式载体)→ 新需求产生(去中心化验证)。

2)再来看web3AI的演进路径,早期的AI Agent项目大多以MEME属性为主,但最近一段时间,市场从单纯launchpad的炒作开始转向更底层架构的AI layer1基础设施系统性构建。

开始有项目在算力、推理、数据标注、存储等各个功能层面进行专业化分工。比如,我们此前分析过 @ionet 专注去中心化算力聚合,Bittensor构建去中心化推理网络, @flock_io 在联邦学习和边缘计算方面发力, @SaharaLabsAI 在分布式数据激励方向, @Mira_Network 通过分布式共识机制降低AI幻觉等等;

这里又有一个逐渐清晰的供给逻辑:MEME炒作降温(泡沫出清)→ 基础设施需求显现(刚需驱动)→ 专业化分工出现(效率优化)→ 生态协同效应(网络价值)。

你看,web2AI需求的“短板”正在逐渐靠近web3AI可供给的“长处”。web2AI和web3AI的演进路径正逐步实现交汇。

web2AI在技术上越来越成熟,但缺乏经济激励和治理机制;web3AI在经济模型上有创新,但技术实现却落后于web2。二者融合正好可以优势互补。

事实上,二者的融合正在催生出一个以链下“高效计算”和链上“快速验证”的AI组合新范式。

在这个范式下,AI不再只是工具,而是具备经济身份的参与者;算力、数据、推理等资源重心会在线下,但同样需要一个轻量化的验证网络。

这种组合很巧妙:既保持了线下计算的高效性和灵活性,同时通过轻量化的链上验证确保了可信度和透明度。

Note:到现在总有人一提web3AI就觉得是伪命题,但如果细心感受并抱有一定前瞻洞察力的话,就知道,以AI的快速发展速度从来都不会区分web2和web3,但人的偏见会。
一边是Meta砸下148亿美元收购Scale AI近半股权,整个硅谷都在惊呼巨头用天价为"数据标注"重新定价;另一边则是即将TGE的 @SaharaLabsAI ,依然被困在"蹭概念、无法自证"的Web3 AI偏见标签下。这种巨大反差背后,市场到底忽略了什么? 首先,数据标注是比去中心化算力聚合更有价值的赛道。 用闲置GPU挑战云计算巨头的故事确实精彩,但算力本质上是标准化商品,差异主要在于价格和可获得性。价格优势看似能从巨头垄断中找到缝隙,但可获得性受制于地理分布、网络延迟以及用户激励不足,一旦巨头降价或增加供给,这种优势瞬间就会被抹平了。 数据标注则完全不同——这是一个需要人类智慧和专业判断的差异化领域。 每一个高质量标注都承载着独特的专业知识、文化背景和认知经验等等,根本无法像GPU算力那样“标准化”复制。 一个精准的癌症影像诊断标注,需要资深肿瘤医生的专业直觉;一个老道的金融市场情绪分析,离不开华尔街Trader的实战经验。这种天然的稀缺性和不可替代性,让“数据标注”具备了算力永远无法企及的护城河深度。 6月10日,Meta正式宣布以148亿美元收购数据标注公司Scale AI 49%的股份,这是今年AI领域最大的单笔投资。 更值得关注的是,Scale AI创始人兼CEO Alexandr Wang将同时担任Meta新成立的"超级智能"研究实验室负责人。 这位25岁的华裔企业家于2016年创立Scale AI时还是斯坦福大学的辍学生,如今他掌管的公司估值已达300亿美元。Scale AI的客户名单堪称AI界的"全明星阵容":OpenAI、特斯拉、微软、国防部等都是其长期合作伙伴。 该公司专门为AI模型训练提供高质量数据标注服务,拥有超过30万名经过专业培训的标注员。 你看,当所有人还在为谁家模型跑分更高争论不休时,真正的玩家已经悄悄把战场转移到了数据源头。 一场关于AI未来控制权的"暗战"已经开始。 Scale AI的成功暴露了一个被忽视的真相:算力不再稀缺,模型架构趋于同质化,真正决定AI智能上限的是那些被精心"调教"过的数据。Meta用天价买下的不是一家外包公司,而是AI时代的"石油开采权"。 垄断的故事总有反叛者。 正如云算力聚合平台试图颠覆中心化云计算服务一样,Sahara AI试图用区块链彻底重写数据标注的价值分配规则。传统数据标注模式的致命缺陷不是技术问题,而是激励设计问题。 一个医生花几小时标注医疗影像,拿到的可能就是几十美元劳务费,而这些数据训练出的AI模型价值数十亿美元,医生却分不到一分钱。这种价值分配的极度不公平,严重抑制了高质量数据的供给意愿。 而有了web3代币激励机制的催化,他们都不再是廉价的数据"农民工",而是AI LLM网络的真正"股东"。显然,web3改造生产关系的优势相比算力更适用于数据标注场景。 有趣的是,Sahara AI恰好在Meta天价收购的节点TGE,是巧合还是精心策划?在我看来,这其实反映了一个市场拐点:无论Web3 AI还是Web2 AI,都已经从"卷算力"走到了"卷数据质量"的十字路口。 当传统巨头用金钱筑起数据壁垒时,Web3正在用Tokenomics构建一个更大的"数据民主化"实验。
一边是Meta砸下148亿美元收购Scale AI近半股权,整个硅谷都在惊呼巨头用天价为"数据标注"重新定价;另一边则是即将TGE的 @SaharaLabsAI ,依然被困在"蹭概念、无法自证"的Web3 AI偏见标签下。这种巨大反差背后,市场到底忽略了什么?

首先,数据标注是比去中心化算力聚合更有价值的赛道。

用闲置GPU挑战云计算巨头的故事确实精彩,但算力本质上是标准化商品,差异主要在于价格和可获得性。价格优势看似能从巨头垄断中找到缝隙,但可获得性受制于地理分布、网络延迟以及用户激励不足,一旦巨头降价或增加供给,这种优势瞬间就会被抹平了。

数据标注则完全不同——这是一个需要人类智慧和专业判断的差异化领域。 每一个高质量标注都承载着独特的专业知识、文化背景和认知经验等等,根本无法像GPU算力那样“标准化”复制。

一个精准的癌症影像诊断标注,需要资深肿瘤医生的专业直觉;一个老道的金融市场情绪分析,离不开华尔街Trader的实战经验。这种天然的稀缺性和不可替代性,让“数据标注”具备了算力永远无法企及的护城河深度。

6月10日,Meta正式宣布以148亿美元收购数据标注公司Scale AI 49%的股份,这是今年AI领域最大的单笔投资。 更值得关注的是,Scale AI创始人兼CEO Alexandr Wang将同时担任Meta新成立的"超级智能"研究实验室负责人。

这位25岁的华裔企业家于2016年创立Scale AI时还是斯坦福大学的辍学生,如今他掌管的公司估值已达300亿美元。Scale AI的客户名单堪称AI界的"全明星阵容":OpenAI、特斯拉、微软、国防部等都是其长期合作伙伴。 该公司专门为AI模型训练提供高质量数据标注服务,拥有超过30万名经过专业培训的标注员。

你看,当所有人还在为谁家模型跑分更高争论不休时,真正的玩家已经悄悄把战场转移到了数据源头。

一场关于AI未来控制权的"暗战"已经开始。

Scale AI的成功暴露了一个被忽视的真相:算力不再稀缺,模型架构趋于同质化,真正决定AI智能上限的是那些被精心"调教"过的数据。Meta用天价买下的不是一家外包公司,而是AI时代的"石油开采权"。

垄断的故事总有反叛者。

正如云算力聚合平台试图颠覆中心化云计算服务一样,Sahara AI试图用区块链彻底重写数据标注的价值分配规则。传统数据标注模式的致命缺陷不是技术问题,而是激励设计问题。

一个医生花几小时标注医疗影像,拿到的可能就是几十美元劳务费,而这些数据训练出的AI模型价值数十亿美元,医生却分不到一分钱。这种价值分配的极度不公平,严重抑制了高质量数据的供给意愿。

而有了web3代币激励机制的催化,他们都不再是廉价的数据"农民工",而是AI LLM网络的真正"股东"。显然,web3改造生产关系的优势相比算力更适用于数据标注场景。

有趣的是,Sahara AI恰好在Meta天价收购的节点TGE,是巧合还是精心策划?在我看来,这其实反映了一个市场拐点:无论Web3 AI还是Web2 AI,都已经从"卷算力"走到了"卷数据质量"的十字路口。

当传统巨头用金钱筑起数据壁垒时,Web3正在用Tokenomics构建一个更大的"数据民主化"实验。
一个好的项目"生态位"应该是怎样的?最近跟一些老板深度聊完发现,大部分项目都没找准自己的生态位: 1、技术门槛高,但一定要有深度应用场景。比如ZK零知识证明可以做zkVM、跨链桥、可验证计算,但综合成本和效率考量,目前只有zk-Rollup layer2扩容跑通了。其他方向都找不到深度应用场景,技术再牛也是空中楼阁。 Mind Network的FHE技术看似门槛很高,实际上一直找不到应用场景。那些做ZK协处理器的项目也大都症结在此; 2、市场需求要接地气,别靠假想驱动。有一些项目经常云云假设有1%的用户使用我们的产品商业想象空间就会多大多大,但实际上可能连这1%的需求都可能是伪造的。 Huma做PayFi切入应收账款、跨境支付,基于合规背景还算靠谱。但那些号称要做"去中心化Stripe"的项目,传统支付哪里不好用了?; 3、商业模式要能在2B和2C之间摆渡。纯2C享受Fomo红利,但熬不过寒冬;纯2B让散户没参与感,营销成本居高不下。最聪明的做法是是两边都要,机构买单、散户买账,才能穿越周期。 Backpack钱包+交易所+NFT社区,机构散户都照顾到了。Particle搞链抽象+应用产品也是兼顾2B2C。相比之下,那些纯做infra的项目,动不动要做全链DA层,只能靠机构输血; 4、商业愿景只需"不可证伪",别贪大求全。什么叫不可证伪?短期内你证明不了我是错的。一些layer2项目总说"只需要一波mass adoption就能爆发",这种宏大愿景短期无法验证的前景等于没前景。 KaitoAI可能压根不是AI公司,但切中了KOL和项目方注意力经济的生意缺口,就具备了不可证伪性。别动不动就要“重新定义XXX”; 5、Timing很重要。技术成熟度、市场教育、竞争格局三个变量的交集,就是时间窗口。AI Agent为什么现在火?LLM够用了,TEE成熟了,用户接受度起来了。三年前谈AI颠覆一切纯属灌鸡汤。 Solana MEME热潮下,竟然还有项目在做GameFi,想靠板块轮动眷顾自己。想想MEME背后的操盘逻辑,就知道游戏这种落地慢、周期长的项目为啥到不了聚光灯下; 6、生态要有自增长属性,不能永远靠运营推动。空投拉用户,Grant补贴开发者,这些只是起步手段。真正的网络效应是用户越多价值越大,开发者越多生态越强。 那些靠积分大战维护热度的layer2,从zkSync、Scroll到Linea,丢掉撸毛党后真实用户在哪?
一个好的项目"生态位"应该是怎样的?最近跟一些老板深度聊完发现,大部分项目都没找准自己的生态位:

1、技术门槛高,但一定要有深度应用场景。比如ZK零知识证明可以做zkVM、跨链桥、可验证计算,但综合成本和效率考量,目前只有zk-Rollup layer2扩容跑通了。其他方向都找不到深度应用场景,技术再牛也是空中楼阁。

Mind Network的FHE技术看似门槛很高,实际上一直找不到应用场景。那些做ZK协处理器的项目也大都症结在此;

2、市场需求要接地气,别靠假想驱动。有一些项目经常云云假设有1%的用户使用我们的产品商业想象空间就会多大多大,但实际上可能连这1%的需求都可能是伪造的。

Huma做PayFi切入应收账款、跨境支付,基于合规背景还算靠谱。但那些号称要做"去中心化Stripe"的项目,传统支付哪里不好用了?;

3、商业模式要能在2B和2C之间摆渡。纯2C享受Fomo红利,但熬不过寒冬;纯2B让散户没参与感,营销成本居高不下。最聪明的做法是是两边都要,机构买单、散户买账,才能穿越周期。

Backpack钱包+交易所+NFT社区,机构散户都照顾到了。Particle搞链抽象+应用产品也是兼顾2B2C。相比之下,那些纯做infra的项目,动不动要做全链DA层,只能靠机构输血;

4、商业愿景只需"不可证伪",别贪大求全。什么叫不可证伪?短期内你证明不了我是错的。一些layer2项目总说"只需要一波mass adoption就能爆发",这种宏大愿景短期无法验证的前景等于没前景。

KaitoAI可能压根不是AI公司,但切中了KOL和项目方注意力经济的生意缺口,就具备了不可证伪性。别动不动就要“重新定义XXX”;

5、Timing很重要。技术成熟度、市场教育、竞争格局三个变量的交集,就是时间窗口。AI Agent为什么现在火?LLM够用了,TEE成熟了,用户接受度起来了。三年前谈AI颠覆一切纯属灌鸡汤。

Solana MEME热潮下,竟然还有项目在做GameFi,想靠板块轮动眷顾自己。想想MEME背后的操盘逻辑,就知道游戏这种落地慢、周期长的项目为啥到不了聚光灯下;

6、生态要有自增长属性,不能永远靠运营推动。空投拉用户,Grant补贴开发者,这些只是起步手段。真正的网络效应是用户越多价值越大,开发者越多生态越强。

那些靠积分大战维护热度的layer2,从zkSync、Scroll到Linea,丢掉撸毛党后真实用户在哪?
最近不少人问我怎么看Base生态的游戏新贵 @b3dotfun ?在Coinbase前员工的“旧部”操盘下,这个专为链上游戏设计的L3能否真正破解Web3游戏的"孤岛"困局?来,我来详细聊聊: ——开放游戏web3全新理念 B3提出的"开放游戏"概念,目标很明确:打破当前Web3游戏各自为政的孤岛状态。现状确实如此,你看Axie Infinity、StepN、Parallel等头部链游,哪个不是在自己的生态里搞封闭循环?用户要玩不同游戏得切换不同链、处理不同代币、适应不同钱包,体验割裂得一塌糊涂。 B3的解决思路是通过GameChains架构让各个游戏保持独立性的同时实现互操作性。比如,Parallel的Prime链、Infinigods的God链都能在B3上独立运行,但底层又能共享流动性和用户激励。这种"既要又要"的想法挺理想,主要看能不能落地。 问题来了,GameChains要真正实现互操作,需要各个游戏方在技术标准、资产定义、经济模型等方面达成一致。而这压根不是技术问题,是利益分配问题。 好在,B3背靠Coinbase生态确实有先天优势,有Base的流量入口和合规背书,确实能吸引不少游戏方主动接入。 ——L3架构+链抽象的技术组合拳 从技术架构看,B3选择了相对稳妥但有特色的路线。作为Base上的L3,单笔交易成本控制在0.001美元左右,这个成本对链游来说确实很有吸引力。 B3的AnySpend技术允许用户通过单一账户即时访问跨链资产,无需手动切换网络或桥接代币。 换句话说,其本质上是"分片+跨链"的混合模式,每个GameChain维护独立状态,但通过B3统一结算层实现原子化跨链操作,避免了传统桥接方案的安全风险和时间延迟。 说白了,B3做的是游戏运营生意,不是卖铁锹的基建生意。 但L3赛道竞争激烈,你有Base生态,人家有Arbitrum的Orbit,Polygon的CDK。B3的差异化护城河可能在于对游戏场景的深度理解和统一入口https://t.co/8wAhsmoQuu等运营服务。 ——Tokenomics设计和商业模式 B3的代币分配相对均衡:34.2%给社区生态,TGE只释放19%,剩余部分有4年锁仓计划,避免了短期抛压。 $B3 的应用场景包括质押获得GameChains奖励、资助游戏项目、支付交易费用等,逻辑比较完整。 从商业模式看,B3采用的是"平台经济+网络效应"模式。与传统游戏发行商抽成30-70%不同,B3通过较低交易费率(0.5%)和代币激励来吸引生态参与者。关键的价值飞轮在于:更多游戏接入→更多玩家聚集→更强网络效应→更高$B3需求→更多资源投入生态。 我比较关心的是B3作为"全链游戏生态主要流通代币"的定位。现在大多数链游都有自己的代币经济,B3怎么说服这些项目接受$B3作为通用货币?从估值角度看,B3更像"游戏版App Store",价值不仅来自技术收费,更来自生态规模效应。 以上。 B3这个项目最大的看点不在于技术创新,而在于对Web3游戏行业结构性问题的系统性解决尝试。从团队背景和资源整合能力看,Coinbase系团队、Base生态支持、2100万美元融资,这些都是实打实的优势。600万活跃钱包用户、80多款接入游戏、3亿笔累计交易,说明B3在用户获取和生态构建方面确实有一套。 B3的差异化在于"既不完全依赖单一游戏IP,也不做纯技术基建"的中间路线,理论上有更大想象空间,但也面临"两头不靠"的风险。 当然,Web3游戏赛道本身还处于早期探索阶段,B3能否真正把"开放游戏"愿景落地,关键还在于能否持续吸引优质游戏内容和真实用户。毕竟,再好的基础设施,最终还是要靠应用生态的繁荣来体现价值。
最近不少人问我怎么看Base生态的游戏新贵 @b3dotfun ?在Coinbase前员工的“旧部”操盘下,这个专为链上游戏设计的L3能否真正破解Web3游戏的"孤岛"困局?来,我来详细聊聊:

——开放游戏web3全新理念

B3提出的"开放游戏"概念,目标很明确:打破当前Web3游戏各自为政的孤岛状态。现状确实如此,你看Axie Infinity、StepN、Parallel等头部链游,哪个不是在自己的生态里搞封闭循环?用户要玩不同游戏得切换不同链、处理不同代币、适应不同钱包,体验割裂得一塌糊涂。

B3的解决思路是通过GameChains架构让各个游戏保持独立性的同时实现互操作性。比如,Parallel的Prime链、Infinigods的God链都能在B3上独立运行,但底层又能共享流动性和用户激励。这种"既要又要"的想法挺理想,主要看能不能落地。

问题来了,GameChains要真正实现互操作,需要各个游戏方在技术标准、资产定义、经济模型等方面达成一致。而这压根不是技术问题,是利益分配问题。

好在,B3背靠Coinbase生态确实有先天优势,有Base的流量入口和合规背书,确实能吸引不少游戏方主动接入。

——L3架构+链抽象的技术组合拳

从技术架构看,B3选择了相对稳妥但有特色的路线。作为Base上的L3,单笔交易成本控制在0.001美元左右,这个成本对链游来说确实很有吸引力。

B3的AnySpend技术允许用户通过单一账户即时访问跨链资产,无需手动切换网络或桥接代币。

换句话说,其本质上是"分片+跨链"的混合模式,每个GameChain维护独立状态,但通过B3统一结算层实现原子化跨链操作,避免了传统桥接方案的安全风险和时间延迟。

说白了,B3做的是游戏运营生意,不是卖铁锹的基建生意。

但L3赛道竞争激烈,你有Base生态,人家有Arbitrum的Orbit,Polygon的CDK。B3的差异化护城河可能在于对游戏场景的深度理解和统一入口https://t.co/8wAhsmoQuu等运营服务。

——Tokenomics设计和商业模式

B3的代币分配相对均衡:34.2%给社区生态,TGE只释放19%,剩余部分有4年锁仓计划,避免了短期抛压。 $B3 的应用场景包括质押获得GameChains奖励、资助游戏项目、支付交易费用等,逻辑比较完整。

从商业模式看,B3采用的是"平台经济+网络效应"模式。与传统游戏发行商抽成30-70%不同,B3通过较低交易费率(0.5%)和代币激励来吸引生态参与者。关键的价值飞轮在于:更多游戏接入→更多玩家聚集→更强网络效应→更高$B3需求→更多资源投入生态。

我比较关心的是B3作为"全链游戏生态主要流通代币"的定位。现在大多数链游都有自己的代币经济,B3怎么说服这些项目接受$B3作为通用货币?从估值角度看,B3更像"游戏版App Store",价值不仅来自技术收费,更来自生态规模效应。

以上。

B3这个项目最大的看点不在于技术创新,而在于对Web3游戏行业结构性问题的系统性解决尝试。从团队背景和资源整合能力看,Coinbase系团队、Base生态支持、2100万美元融资,这些都是实打实的优势。600万活跃钱包用户、80多款接入游戏、3亿笔累计交易,说明B3在用户获取和生态构建方面确实有一套。

B3的差异化在于"既不完全依赖单一游戏IP,也不做纯技术基建"的中间路线,理论上有更大想象空间,但也面临"两头不靠"的风险。

当然,Web3游戏赛道本身还处于早期探索阶段,B3能否真正把"开放游戏"愿景落地,关键还在于能否持续吸引优质游戏内容和真实用户。毕竟,再好的基础设施,最终还是要靠应用生态的繁荣来体现价值。
约莫3个月前, $FLOCK @flock_io 被Binance Alpha公告下架了,然而今天有一些朋友反应,FLock又被“悄悄”上架了,这一波回手掏的动作估计要把项目方整迷糊了。 原因不用分析,毕竟交易所有自己的上下架解释权,但这倒是给了项目方指明了一个方向: 其实没必要把上Binance现货或者Alpha当成一个终极Milestone,并为此做出一些让自己无法承受之重的代价。 事实证明,决定一个Ticker能不能被Listed的关键就是真实有效的持币地址、交易量、换手率等这些最基础的指标,理论上如果担忧无法被listed,只需要持续Build,做大做强这些指标就可以了,这是项目方和任何交易所对等谈判的筹码。 FLock 恰好就是个典型,原本在Bybit TGE霸榜表现很不错,被上了Binance Alpha,而后随着市场趋势下行,又突然被Delist了,谁曾想,几天前又被Upbit、Bithumb上架,单日成交额突破1亿美元,5天内累计涨幅突破222%。或许正是如此优秀表现,这不又被列入Binance Alpha了。 所以,项目方与其争破脑袋冲着满足Alpha上币条件而努力,倒不如埋头Build强大项目市场表现力在先。
约莫3个月前, $FLOCK @flock_io 被Binance Alpha公告下架了,然而今天有一些朋友反应,FLock又被“悄悄”上架了,这一波回手掏的动作估计要把项目方整迷糊了。

原因不用分析,毕竟交易所有自己的上下架解释权,但这倒是给了项目方指明了一个方向:

其实没必要把上Binance现货或者Alpha当成一个终极Milestone,并为此做出一些让自己无法承受之重的代价。

事实证明,决定一个Ticker能不能被Listed的关键就是真实有效的持币地址、交易量、换手率等这些最基础的指标,理论上如果担忧无法被listed,只需要持续Build,做大做强这些指标就可以了,这是项目方和任何交易所对等谈判的筹码。

FLock 恰好就是个典型,原本在Bybit TGE霸榜表现很不错,被上了Binance Alpha,而后随着市场趋势下行,又突然被Delist了,谁曾想,几天前又被Upbit、Bithumb上架,单日成交额突破1亿美元,5天内累计涨幅突破222%。或许正是如此优秀表现,这不又被列入Binance Alpha了。

所以,项目方与其争破脑袋冲着满足Alpha上币条件而努力,倒不如埋头Build强大项目市场表现力在先。
看到 https://t.co/sqAa0uamkt 要以40亿美元估值发币筹集10亿美元,五味杂陈。很难想象,一个MEME发射平台,估值竟然超越了大部分DeFi蓝筹协议。这种天价估值合理吗?以下谈几个观点: 1)虚高泡沫化的市场估值颇为不合理 从数据看,https://t.co/sqAa0uamkt确实是这轮MEME超级周期的最大受益者,月收入峰值曾达到数千万美元,这个造富效应放在传统互联网都是现象级的。 但,https://t.co/sqAa0uamkt的注意力经济生意经是依赖市场MEME币的短期高度Fomo的非理性产物。说白了就是靠"赌性"驱动的流量变现。这意味着,https://t.co/sqAa0uamkt的商业模式变现能力完全是短期市场聚光灯效应下的产物,而非可持续的常态化盈利逻辑。 基于此,再来看4B的估值合理吗?这个定价远超大部分DeFi蓝筹协议的定价,很难想象一个被戏虐割韭菜平台的估值会碾压蓝筹创新协议。一旦MEME热潮退却,或者市场回归理性,https://t.co/sqAa0uamkt的收入模型会瞬间坍塌。那选择在此刻MEME潮遇冷之际发币的https://t.co/sqAa0uamkt倾注给市场的到底是什么? 2)脆弱的商业护城河容易被反超 https://t.co/sqAa0uamkt的成功看似偶然实则必然,它抓住了Solana高性能+低成本的技术红利,以及MEME文化从小众走向大众的时代红利。 但这种"先发优势"有多深的护城河值得怀疑?技术上,类似的发币平台可以被快速复制;运营上,MEME发射平台本质上是个流量生意,一旦热点转移或者监管收紧,用户迁移成本极低。 更关键的是,https://t.co/sqAa0uamkt对Solana生态的依赖度极高,一旦Solana生态出现重大变化,其商业模式的脆弱性会暴露无遗。这种建立在他人基础设施之上的商业模式,本质上就是"寄人篱下"的生意,何况又存在极大的不持续型,怎能撑起4B美元的独立估值? 3)Launchpad工具化属性很难自成生态 https://t.co/sqAa0uamkt目前再“赚钱”也只是个“发币工具”,而要撑起4B的市场估值,至少需要一个庞大的MEME经济生态才行。明知不可为,而偏为之,很难想象融资1B美元的融资规模所图为何? 殊不知,要想从纯Launchpad蜕变成一个复杂的MEME经济生态,本身就存在悖论:MEME文化的核心恰恰是简单、直接、病毒式传播,过度的功能叠加只会让平台失去原有的"野性"。 事实上,MEME的"短平快"特性和平台的长期价值积累之间取得平衡,那些试图从工具向平台进化的产品,往往在追求"大而全"的过程中迷失自我,最终沦为四不像。https://t.co/sqAa0uamkt拿着10亿美元,很可能正在走向这样的宿命。 4)超高估值会颠覆原本的价值创新体系 https://t.co/sqAa0uamkt的超高估值,正向整个行业发出危险信号:在当前的Crypto生态中,"流量聚合+投机变现"的价值可能超过了"技术创新+基础设施"。试问,当炮制赌博平台比推动技术创新更赚钱,谁还会去啃infra这根硬骨头,很难想象,这种新的价值导向会产生怎样的灾难式行业连锁反应。 一方面,会有更多资本和人才涌入MEME相关的基础设施建设;另一方面,也可能加剧行业的"娱乐化"趋势,让真正的技术创新被边缘化。 总的来说,https://t.co/sqAa0uamkt发币这件事,既是MEME经济走向成熟的标志,也可能是行业价值观沦陷的信号弹。 关键在于,它能否在获得巨额资本后,真正构建出可持续的商业护城河,要不然这种畸形的估值会给整个行业带来莫大的创新灾难,预示着一个更加功利、更加短视、更加远离技术极客本源的Crypto未来。
看到 https://t.co/sqAa0uamkt 要以40亿美元估值发币筹集10亿美元,五味杂陈。很难想象,一个MEME发射平台,估值竟然超越了大部分DeFi蓝筹协议。这种天价估值合理吗?以下谈几个观点:

1)虚高泡沫化的市场估值颇为不合理

从数据看,https://t.co/sqAa0uamkt确实是这轮MEME超级周期的最大受益者,月收入峰值曾达到数千万美元,这个造富效应放在传统互联网都是现象级的。

但,https://t.co/sqAa0uamkt的注意力经济生意经是依赖市场MEME币的短期高度Fomo的非理性产物。说白了就是靠"赌性"驱动的流量变现。这意味着,https://t.co/sqAa0uamkt的商业模式变现能力完全是短期市场聚光灯效应下的产物,而非可持续的常态化盈利逻辑。

基于此,再来看4B的估值合理吗?这个定价远超大部分DeFi蓝筹协议的定价,很难想象一个被戏虐割韭菜平台的估值会碾压蓝筹创新协议。一旦MEME热潮退却,或者市场回归理性,https://t.co/sqAa0uamkt的收入模型会瞬间坍塌。那选择在此刻MEME潮遇冷之际发币的https://t.co/sqAa0uamkt倾注给市场的到底是什么?

2)脆弱的商业护城河容易被反超

https://t.co/sqAa0uamkt的成功看似偶然实则必然,它抓住了Solana高性能+低成本的技术红利,以及MEME文化从小众走向大众的时代红利。

但这种"先发优势"有多深的护城河值得怀疑?技术上,类似的发币平台可以被快速复制;运营上,MEME发射平台本质上是个流量生意,一旦热点转移或者监管收紧,用户迁移成本极低。

更关键的是,https://t.co/sqAa0uamkt对Solana生态的依赖度极高,一旦Solana生态出现重大变化,其商业模式的脆弱性会暴露无遗。这种建立在他人基础设施之上的商业模式,本质上就是"寄人篱下"的生意,何况又存在极大的不持续型,怎能撑起4B美元的独立估值?

3)Launchpad工具化属性很难自成生态

https://t.co/sqAa0uamkt目前再“赚钱”也只是个“发币工具”,而要撑起4B的市场估值,至少需要一个庞大的MEME经济生态才行。明知不可为,而偏为之,很难想象融资1B美元的融资规模所图为何?

殊不知,要想从纯Launchpad蜕变成一个复杂的MEME经济生态,本身就存在悖论:MEME文化的核心恰恰是简单、直接、病毒式传播,过度的功能叠加只会让平台失去原有的"野性"。

事实上,MEME的"短平快"特性和平台的长期价值积累之间取得平衡,那些试图从工具向平台进化的产品,往往在追求"大而全"的过程中迷失自我,最终沦为四不像。https://t.co/sqAa0uamkt拿着10亿美元,很可能正在走向这样的宿命。

4)超高估值会颠覆原本的价值创新体系

https://t.co/sqAa0uamkt的超高估值,正向整个行业发出危险信号:在当前的Crypto生态中,"流量聚合+投机变现"的价值可能超过了"技术创新+基础设施"。试问,当炮制赌博平台比推动技术创新更赚钱,谁还会去啃infra这根硬骨头,很难想象,这种新的价值导向会产生怎样的灾难式行业连锁反应。

一方面,会有更多资本和人才涌入MEME相关的基础设施建设;另一方面,也可能加剧行业的"娱乐化"趋势,让真正的技术创新被边缘化。

总的来说,https://t.co/sqAa0uamkt发币这件事,既是MEME经济走向成熟的标志,也可能是行业价值观沦陷的信号弹。

关键在于,它能否在获得巨额资本后,真正构建出可持续的商业护城河,要不然这种畸形的估值会给整个行业带来莫大的创新灾难,预示着一个更加功利、更加短视、更加远离技术极客本源的Crypto未来。
比传统KOL喊单��可怕的,是经过调教的AI Agent直接杀入交易一线。已经不是“信息差”的游戏了,而是“执行力”的碾压级代差。 传统KOL再牛逼,也得靠肉眼盯盘、手动下单,从发现机会到完成交易中间隔着网络的延迟、还有手速的局限以及决策的不确定; 但AI Agent直接把这套流程压缩到毫秒级——多链同步监控、算法识别套利窗口、自动化执行交易,整个过程无缝衔接。 So,AI Agent取代传统KOL是迟早的事儿? 这个时间窗口正在快速打开,但还没完全到位。从技术底层看,TEE可信执行环境、DeFi流动性基础设施、跨链协议栈都还在探索磨合阶段: 1、大部分AI Agent还停留在"单点突破"阶段,真正的Multi-Agent军团作战模式还在构建期; 2、web3行业协议间还缺乏统一的API和权限管理标准化; 3、监管边界还是一团浆糊,谁也不知道哪天会被一刀切,这让很多资金方投鼠忌器; 4、链上Gas费和MEV抢跑成本还在吞噬大部分小额套利空间,只有大资金才玩得起这套游戏; 5、真正懂Crypto原生逻辑又能写出靠谱Agent的技术团队还是稀缺资源,大部分项目都是web2思维硬套web3场景。 按这个发展速度,我估计2025年下半年就是个分水岭。要避免沦为这场AI交易大战中的"人肉韭菜",出路只有一条:人人都得培养自己的AI Agent助理,彻底转向Agentic思维玩转Crypto。 这不是什么高大上的概念,就是把原来你亲自盯盘、手动交易的活儿,逐步外包给你调教出来的AI Agent——从价格监控、风险提醒,到多池套利、跨链搬砖,让AI Agent成为你在链上世界的"数字分身"。 换句话说,传统KOL喊单的时代要结束了,接下来会是Agentic意见领袖的天下。
比传统KOL喊单��可怕的,是经过调教的AI Agent直接杀入交易一线。已经不是“信息差”的游戏了,而是“执行力”的碾压级代差。

传统KOL再牛逼,也得靠肉眼盯盘、手动下单,从发现机会到完成交易中间隔着网络的延迟、还有手速的局限以及决策的不确定;

但AI Agent直接把这套流程压缩到毫秒级——多链同步监控、算法识别套利窗口、自动化执行交易,整个过程无缝衔接。

So,AI Agent取代传统KOL是迟早的事儿?

这个时间窗口正在快速打开,但还没完全到位。从技术底层看,TEE可信执行环境、DeFi流动性基础设施、跨链协议栈都还在探索磨合阶段:

1、大部分AI Agent还停留在"单点突破"阶段,真正的Multi-Agent军团作战模式还在构建期;

2、web3行业协议间还缺乏统一的API和权限管理标准化;

3、监管边界还是一团浆糊,谁也不知道哪天会被一刀切,这让很多资金方投鼠忌器;

4、链上Gas费和MEV抢跑成本还在吞噬大部分小额套利空间,只有大资金才玩得起这套游戏;

5、真正懂Crypto原生逻辑又能写出靠谱Agent的技术团队还是稀缺资源,大部分项目都是web2思维硬套web3场景。

按这个发展速度,我估计2025年下半年就是个分水岭。要避免沦为这场AI交易大战中的"人肉韭菜",出路只有一条:人人都得培养自己的AI Agent助理,彻底转向Agentic思维玩转Crypto。

这不是什么高大上的概念,就是把原来你亲自盯盘、手动交易的活儿,逐步外包给你调教出来的AI Agent——从价格监控、风险提醒,到多池套利、跨链搬砖,让AI Agent成为你在链上世界的"数字分身"。

换句话说,传统KOL喊单的时代要结束了,接下来会是Agentic意见领袖的天下。
关于 @humafinance 给Kaito Yaper发空投这事儿,背后的门道比表面看起来要深得多,说三点: 1)撸毛从"卷交互"跨入"卷算法"时代。 过去撸毛拼的是"勤奋"——多开钱包、刷交互、堆TVL,现在直接跨入拼"算法权重"Mindshare的时代。 @KaitoAI 、@cookiedotfun 这类平台相当于给每个KOL建了一份"数字档案",通过机器学习量化内容价值、受众质量、互动效率等影响力维度。 某种程度上,这是把原本依赖"圈内关系"和"主观判断"的KOL筛选机制,升级成了AI数据驱动的精准投放。 不过,初期的算法评估很难尽如人意,比如可以靠互赞群、刷粉丝、评论互助等进行小范围勾兑,因此短期也会有撸毛工作室一窝蜂卷入博撸毛机会。 但别忘了算法可以持续优化,卷交互注意一下IP和资产关联性还能避免被女巫,但卷算法尤其在"黑箱"情况下,被女巫的概率只会更大。把它当成“撸毛生意经”得谨慎。 2)平台KOL生态"阶层分化"会加速。 说实话,头部KOL本来就有Alpha投研能力和早期深度参与优质项目的机会,可以通过当顾问、投资、链上理财等方式进行影响力变现。 所以这些大V往往比较"高冷",发文频率低、互动谨慎,在算法眼里反而可能被归类为"不活跃用户"。而一些腰尾部KOL每天高频转发、评论、互动,在算法的活跃度评分中倒是能拿到高分。 这其实暴露了当前算法评估的一个核心bug——把"数量"当成了"质量",把"频次"当成了"价值"。短期内确实会给那些愿意高频刷项目的KOL带来一波红利。 但话说回来,算法最终还是要靠客观的影响力评估取胜的。随着算法持续优化,"互动频次"必然会让位于"内容价值"权重,不然头部KOL和头部优质项目都跑了,这是掌握算法黑箱的平台方绝对不愿意看到的。关键还是如何能同时兼顾内容价值和互动频率,避免平台KOL资源出现严重分化。 3)项目方营销成本的"隐性通胀"已经开始。 表面上看,从找Agency打包KOL资源,到直接通过Kaito等平台精准投放,确实砍掉了中间商环节。但现实是什么?项目方参与这场"算法军备赛"本身就要交摊位费,而且随着大家竞价排位越来越激烈,隐形成本只会水涨船高。 更要命的是,算法过度依赖量化指标——什么Smart Followers的互动数量啊,却忽略了真正有传播价值的东西,比如内容深度、受众质量、品牌匹配度这些。算法偏差带来的问题很明显: 一是营销ROI下降——空投给了影响力价值不匹配的账号,实际转化效果肯定不如预期;二是品牌声誉风险——过度看重互动数量而不是内容质量,搞不好还会损害项目方好不容易建立起来的市场认知。 当然,这也是个动态博弈的过程。算法模型会不断优化,项目方也可以人为介入调控,最终还是要回到品牌价值和用户价值的双向匹配上来,Kaito、Cookie这类算法平台的生意经才能真正做大做强。 Note:我个人Yap积分纯佛系获取,最近一周明显感觉干货内容被加权了,排名挺靠前的。这类AI算法平台在注意力经济的Mindshare分配“生态位”上蛮重要。 但最好避免一家独大,因此支持更多Cookie类似的平台加入平台竞争很有必要。(有10个内测邀请码,需要的话DM或评论)
关于 @humafinance 给Kaito Yaper发空投这事儿,背后的门道比表面看起来要深得多,说三点:

1)撸毛从"卷交互"跨入"卷算法"时代。 过去撸毛拼的是"勤奋"——多开钱包、刷交互、堆TVL,现在直接跨入拼"算法权重"Mindshare的时代。

@KaitoAI 、@cookiedotfun 这类平台相当于给每个KOL建了一份"数字档案",通过机器学习量化内容价值、受众质量、互动效率等影响力维度。

某种程度上,这是把原本依赖"圈内关系"和"主观判断"的KOL筛选机制,升级成了AI数据驱动的精准投放。

不过,初期的算法评估很难尽如人意,比如可以靠互赞群、刷粉丝、评论互助等进行小范围勾兑,因此短期也会有撸毛工作室一窝蜂卷入博撸毛机会。

但别忘了算法可以持续优化,卷交互注意一下IP和资产关联性还能避免被女巫,但卷算法尤其在"黑箱"情况下,被女巫的概率只会更大。把它当成“撸毛生意经”得谨慎。

2)平台KOL生态"阶层分化"会加速。 说实话,头部KOL本来就有Alpha投研能力和早期深度参与优质项目的机会,可以通过当顾问、投资、链上理财等方式进行影响力变现。

所以这些大V往往比较"高冷",发文频率低、互动谨慎,在算法眼里反而可能被归类为"不活跃用户"。而一些腰尾部KOL每天高频转发、评论、互动,在算法的活跃度评分中倒是能拿到高分。

这其实暴露了当前算法评估的一个核心bug——把"数量"当成了"质量",把"频次"当成了"价值"。短期内确实会给那些愿意高频刷项目的KOL带来一波红利。

但话说回来,算法最终还是要靠客观的影响力评估取胜的。随着算法持续优化,"互动频次"必然会让位于"内容价值"权重,不然头部KOL和头部优质项目都跑了,这是掌握算法黑箱的平台方绝对不愿意看到的。关键还是如何能同时兼顾内容价值和互动频率,避免平台KOL资源出现严重分化。

3)项目方营销成本的"隐性通胀"已经开始。 表面上看,从找Agency打包KOL资源,到直接通过Kaito等平台精准投放,确实砍掉了中间商环节。但现实是什么?项目方参与这场"算法军备赛"本身就要交摊位费,而且随着大家竞价排位越来越激烈,隐形成本只会水涨船高。

更要命的是,算法过度依赖量化指标——什么Smart Followers的互动数量啊,却忽略了真正有传播价值的东西,比如内容深度、受众质量、品牌匹配度这些。算法偏差带来的问题很明显:

一是营销ROI下降——空投给了影响力价值不匹配的账号,实际转化效果肯定不如预期;二是品牌声誉风险——过度看重互动数量而不是内容质量,搞不好还会损害项目方好不容易建立起来的市场认知。

当然,这也是个动态博弈的过程。算法模型会不断优化,项目方也可以人为介入调控,最终还是要回到品牌价值和用户价值的双向匹配上来,Kaito、Cookie这类算法平台的生意经才能真正做大做强。

Note:我个人Yap积分纯佛系获取,最近一周明显感觉干货内容被加权了,排名挺靠前的。这类AI算法平台在注意力经济的Mindshare分配“生态位”上蛮重要。

但最好避免一家独大,因此支持更多Cookie类似的平台加入平台竞争很有必要。(有10个内测邀请码,需要的话DM或评论)
刚刚和几个圈内大佬聊完,大家都在讨论同一件事... "四年一个周期"这套理论,彻底过时了! 如果你还在Hold住暴富,还在幻想"牛市十倍百倍的躺赢机会",可能已被市场完全抛弃了。Why? 因为聪明钱早就发现了一个秘密:现在的Crypto已不适用一套打法,而是4个完全不同的玩法周期在同时运行🧵: 每个玩法周期的节奏、玩法、赚钱逻辑都完全不一样。 ——比特币超级周期:散户出局,十年慢牛或成定局 传统减半周期的"剧本"?彻底失效了!BTC已经从"炒作标的"进化成"机构配置资产",华尔街、上市公司、ETF的资金体量和配置逻辑,完全不是散户那套"牛熊切换"的玩法。 关键变化在哪?散户筹码正在大规模交出,而以MicroStrategy为代表的机构资金在疯狂进场。这种筹码结构的根本性重构,正在重新定义BTC的价格发现机制和波动特征。 散户面对的是什么?"时间成本"和"机会成本"的双重挤压。机构可以承受3-5年的持有周期来等待BTC的长期价值实现,而散户呢?显然不可能有这种耐心和资金布局实力。 在我看来,我们很可能会看到一个持续十年以上的BTC超级慢牛。年化收益率稳定在20-30%区间,但日内波动性显著降低,更像是一只稳健增长的科技股。至于BTC的价格上限会达到多少?以现在散户的视角去看,甚至都很难预测。 ——MEME注意力短波周期:从贫民窟乐园到专业割韭菜场 MEME长牛论其实也成立,在技术叙事表现力空窗期,MEME叙事始终会配合情绪、资金和注意力的节拍来填补市场的"无聊真空"。 MEME的本质是什么?就是"即时满足"的投机载体。不需要白皮书、不需要技术验证、不需要路线图,只需要一个能让人会心一笑或者产生共鸣的符号就够了。从猫狗文化到政治MEME,从AI概念包装到社区IP孵化,MEME已经进化成了一套完整的"情绪变现"产业链。 要命的是,MEME的"短平快"特性让它成了市场情绪的晴雨表和资金的蓄水池。资金充沛时,MEME成为热钱的首选试验场;资金紧缺时,MEME又变成了最后的投机避风港。 但是,现实很残酷,MEME市场正在从"草根狂欢"进化为"专业竞技"。普通散户想要在这种高频轮动中获利的难度正在指数级上升。 P小将枯坐铸就传奇的故事可能会越来越少,工作室、科学家、大户的入场,会让这个曾经的"贫民窟乐园"内卷到不行。 ——技术叙事跃进式长周期:死亡谷抄底,3年10倍起步? 技术叙事消失了?不存在的。真正有技术门槛的创新,比如Layer2扩容、ZK技术、AI infra等,这些需要2-3年甚至更长的Build时间才能看到实际效果。这类项目遵循的是技术成熟度曲线(Gartner Hype Cycle),而不是资本市场的情绪周期——两者之间存在根本性的时间错位。 技术叙事之所以被市场诟病,完全在于当项目还处于概念阶段时就给出过高估值,然后在技术真正开始落地的"死亡谷"阶段反而出现价值低估。这决定了,技术项目的价值释放呈现非线性的跃进式特征。 对于有耐心和技术判断力的投资者来说,在"死亡谷"阶段布局真正有价值的技术项目,可能是获得超额回报的最佳策略。但前提是,你得能忍受漫长的等待期和市场煎熬,以及潜在的冷嘲热讽。 ——创新小热点短促周期:1-3个月窗口期,酝酿主升浪大叙事 在主线技术叙事形成前,各种小叙事快速轮动,从RWA到DePIN,从AI Agent到AI Infra(MCP+A2A),每个小热点可能只有1-3个月的窗口期。 这种叙事碎片化和高频轮动反映了当前市场注意力稀缺性和资金寻租效率的双重约束。 其实,不难发现典型的小叙事周期遵循六阶段模型:"概念验证→资金试探→舆论放大→FOMO入场→估值透支→资金撤离"。想在这种模式中获利? 关键是要在"概念验证"到"资金试探"阶段进入,在"FOMO入场"高峰时退出。 小叙事之间的竞争本质上是注意力资源的零和博弈。但叙事之间存在技术关联性和概念递进关系。比如,AI Infra中的MCP(Model Context Protocol)协议和A2A(Agent-to-Agent)交互标准,实际上是对AI Agent叙事的技术底层重构。若后续叙事能延续前热点,形成系统性的升级联动,并在联动过程中真正沉淀出可持续的价值闭环。很可能就会诞生一个有主升浪级别类似DeFi Summer的超级大叙事。 从现有的小叙事格局来看,AI基础设施层面最有可能率先实现突破。MCP协议、A2A通信标准、分布式算力、推理、数据网络等底层技术如果能够有机整合,确实有潜力构建出一个类似"AI Summer"的超级叙事。 以上。 总的来说,认清楚这四种并行玩法周期的本质,才能在各自的节奏中找到合适的策略。毋庸置疑,单一的"四年一轮回"思维已经完全跟不上现在市场的复杂性了。 适应“多玩法周期并行”的新常态,或许才是在这轮牛市中真正获利的关键所在。
刚刚和几个圈内大佬聊完,大家都在讨论同一件事...

"四年一个周期"这套理论,彻底过时了!

如果你还在Hold住暴富,还在幻想"牛市十倍百倍的躺赢机会",可能已被市场完全抛弃了。Why?

因为聪明钱早就发现了一个秘密:现在的Crypto已不适用一套打法,而是4个完全不同的玩法周期在同时运行🧵:

每个玩法周期的节奏、玩法、赚钱逻辑都完全不一样。

——比特币超级周期:散户出局,十年慢牛或成定局

传统减半周期的"剧本"?彻底失效了!BTC已经从"炒作标的"进化成"机构配置资产",华尔街、上市公司、ETF的资金体量和配置逻辑,完全不是散户那套"牛熊切换"的玩法。

关键变化在哪?散户筹码正在大规模交出,而以MicroStrategy为代表的机构资金在疯狂进场。这种筹码结构的根本性重构,正在重新定义BTC的价格发现机制和波动特征。

散户面对的是什么?"时间成本"和"机会成本"的双重挤压。机构可以承受3-5年的持有周期来等待BTC的长期价值实现,而散户呢?显然不可能有这种耐心和资金布局实力。

在我看来,我们很可能会看到一个持续十年以上的BTC超级慢牛。年化收益率稳定在20-30%区间,但日内波动性显著降低,更像是一只稳健增长的科技股。至于BTC的价格上限会达到多少?以现在散户的视角去看,甚至都很难预测。

——MEME注意力短波周期:从贫民窟乐园到专业割韭菜场

MEME长牛论其实也成立,在技术叙事表现力空窗期,MEME叙事始终会配合情绪、资金和注意力的节拍来填补市场的"无聊真空"。

MEME的本质是什么?就是"即时满足"的投机载体。不需要白皮书、不需要技术验证、不需要路线图,只需要一个能让人会心一笑或者产生共鸣的符号就够了。从猫狗文化到政治MEME,从AI概念包装到社区IP孵化,MEME已经进化成了一套完整的"情绪变现"产业链。

要命的是,MEME的"短平快"特性让它成了市场情绪的晴雨表和资金的蓄水池。资金充沛时,MEME成为热钱的首选试验场;资金紧缺时,MEME又变成了最后的投机避风港。

但是,现实很残酷,MEME市场正在从"草根狂欢"进化为"专业竞技"。普通散户想要在这种高频轮动中获利的难度正在指数级上升。

P小将枯坐铸就传奇的故事可能会越来越少,工作室、科学家、大户的入场,会让这个曾经的"贫民窟乐园"内卷到不行。

——技术叙事跃进式长周期:死亡谷抄底,3年10倍起步?

技术叙事消失了?不存在的。真正有技术门槛的创新,比如Layer2扩容、ZK技术、AI infra等,这些需要2-3年甚至更长的Build时间才能看到实际效果。这类项目遵循的是技术成熟度曲线(Gartner Hype Cycle),而不是资本市场的情绪周期——两者之间存在根本性的时间错位。

技术叙事之所以被市场诟病,完全在于当项目还处于概念阶段时就给出过高估值,然后在技术真正开始落地的"死亡谷"阶段反而出现价值低估。这决定了,技术项目的价值释放呈现非线性的跃进式特征。

对于有耐心和技术判断力的投资者来说,在"死亡谷"阶段布局真正有价值的技术项目,可能是获得超额回报的最佳策略。但前提是,你得能忍受漫长的等待期和市场煎熬,以及潜在的冷嘲热讽。

——创新小热点短促周期:1-3个月窗口期,酝酿主升浪大叙事

在主线技术叙事形成前,各种小叙事快速轮动,从RWA到DePIN,从AI Agent到AI Infra(MCP+A2A),每个小热点可能只有1-3个月的窗口期。

这种叙事碎片化和高频轮动反映了当前市场注意力稀缺性和资金寻租效率的双重约束。

其实,不难发现典型的小叙事周期遵循六阶段模型:"概念验证→资金试探→舆论放大→FOMO入场→估值透支→资金撤离"。想在这种模式中获利?

关键是要在"概念验证"到"资金试探"阶段进入,在"FOMO入场"高峰时退出。

小叙事之间的竞争本质上是注意力资源的零和博弈。但叙事之间存在技术关联性和概念递进关系。比如,AI Infra中的MCP(Model Context Protocol)协议和A2A(Agent-to-Agent)交互标准,实际上是对AI Agent叙事的技术底层重构。若后续叙事能延续前热点,形成系统性的升级联动,并在联动过程中真正沉淀出可持续的价值闭环。很可能就会诞生一个有主升浪级别类似DeFi Summer的超级大叙事。

从现有的小叙事格局来看,AI基础设施层面最有可能率先实现突破。MCP协议、A2A通信标准、分布式算力、推理、数据网络等底层技术如果能够有机整合,确实有潜力构建出一个类似"AI Summer"的超级叙事。

以上。

总的来说,认清楚这四种并行玩法周期的本质,才能在各自的节奏中找到合适的策略。毋庸置疑,单一的"四年一轮回"思维已经完全跟不上现在市场的复杂性了。

适应“多玩法周期并行”的新常态,或许才是在这轮牛市中真正获利的关键所在。
最近, @MMTFinance 在Sui链上的快速崛起着实让人眼前一亮,一个月内TVL突破5,500万美元,成为Sui链历史上TVL增长最快的项目。在当前DEX赛道同质化严重、用户粘性不足的困境下,Momentum凭什么能快速突围?答案就在其采用的ve(3,3)机制。接下来,说说我的看法: ——DEX赛道亟需新破局点,ve(3,3)恰逢其时 在我看来,当前DEX市场面临两大困境:1)传统AMM模式的激励不可持续,大部分项目陷入"挖提卖"死亡螺旋;2)流动性碎片化严重,用户忠诚度低,缺乏长期价值捕获机制。 ve(3,3)机制的出现为这些困境提供了解决方案。简单来说,它将Curve的Vote Escrow锁定机制和Olympus DAO的(3,3)博弈论结合,用户锁定代币获得投票权,通过投票引导协议资源分配,项目方可以"贿选"吸引选票,所有手续费分配给投票者。 这套机制的精妙之处在于构建了一个自我强化的Flywheel:质押比例提升→代币卖压降低→价格上涨→做市APR提高→吸引更多流动性→交易量增加→手续费回馈增加,形成正向循环。某种程度上,这是DeFi协议可持续发展的"圣杯"机制。 ——Sui技术底座:Move系公链的天然优势 Momentum选择Sui并非偶然。ve(3,3)机制涉及复杂的投票、"贿选"、奖励分配等交互,对底层性能和安全性要求极高。 1)性能层面,Sui通过并行事务处理达到297,000 TPS,能够支撑ve(3,3)的高频复杂交互; 2)安全层面,Move语言的资源所有权模型和对象中心设计,使得动态权重管理、复杂状态变更更加安全可靠; 3)用户体验层面,Sui的亚秒级确认确保投票和奖励分配的及时执行,这对"贿选"机制的时效性至关重要。 通俗点说,如果把ve(3,3)比作一台精密的飞轮机器,Sui就是为这台机器量身打造的高性能发动机。 ——强势背景加持:卡塔尔皇室+基金会的双重buff ve(3,3)机制的冷启动是个典型的鸡生蛋问题,需要强大的初始资源支撑。Momentum的投资阵容堪称豪华: @Coinbase Ventures、 @SuiNetwork 基金会、 @jump_ Crypto ,以及具有卡塔尔皇室背景的Varys Capital作为领投方。 更关键的是,创始人 @ChefMMT_X 曾参与Meta的Diem项目,而Diem正是Sui的前身。这种技术传承使得Momentum获得了Sui基金会和Mysten Labs的双重支持,不仅是资金层面,更是生态资源的全面倾斜。 事实上,成功的ve(3,3)项目(如Base链上的Aerodrome)都离不开基金会支持。强大的背景为Momentum快速积累TVL、启动飞轮提供了关键助力。 ——生态定位:不只是DEX,更是Sui的资源分配中心 从一个月冲进Sui链TVL前十的表现看,Momentum显然有着成为Sui生态DEX基础设施的野心。ve(3,3)机制使其不仅仅是交易平台,更像一个生态流量分发中心。 通过"贿选"机制,Sui生态的新项目可以通过Momentum获得流动性支持,这使得Momentum有潜力复制Curve在以太坊生态的成功,成为Sui DeFi乐高的重要组件。 毋庸置疑,在高性能L1的竞争中,率先建立起强大DeFi基础设施的链更容易获得生态红利,而Momentum正是Sui在这场竞争中的重要武器。 以上。 不过,也有一些大的挑战需要说明。最近 @CetusProtocol 黑客事件就是个典型例子,虽然MMT本身安全无虞,但整个Sui生态的避险情绪导致TVL出现明显回落。目前看来是Cetus代码层面的问题,不涉及Sui底层安全,但生态风险的传导效应不容忽视。 某种程度上,这也印证了我们此前提到的风险:首先是Sui生态层面的中心化争议,市场需要消化一阵子;其次,ve(3,3)机制本身的可持续性仍待验证,历史上不少类似项目在初期Fomo后都面临飞轮逆转风险,一旦TVL增长放缓,正向循环就可能变成负向螺旋。 不过,危机往往也是机会。Cetus事件后的避险情绪消散,可能为Momentum等安全项目带来流动性回流的窗口期。最后,即将到来的7月TGE将是关键考验,代币分发和长期激励机制设计将直接影响项目的可持续发展。 总的来说,Momentum通过ve(3,3)机制在Sui上的快速崛起,代表了Move系公链在DeFi创新方面的重要尝试。这既是Sui要面临的考验,也是ve(3,3)这套老DeFi模式能否基于新沃土焕发生命力的关键大考。
最近, @MMTFinance 在Sui链上的快速崛起着实让人眼前一亮,一个月内TVL突破5,500万美元,成为Sui链历史上TVL增长最快的项目。在当前DEX赛道同质化严重、用户粘性不足的困境下,Momentum凭什么能快速突围?答案就在其采用的ve(3,3)机制。接下来,说说我的看法:

——DEX赛道亟需新破局点,ve(3,3)恰逢其时

在我看来,当前DEX市场面临两大困境:1)传统AMM模式的激励不可持续,大部分项目陷入"挖提卖"死亡螺旋;2)流动性碎片化严重,用户忠诚度低,缺乏长期价值捕获机制。

ve(3,3)机制的出现为这些困境提供了解决方案。简单来说,它将Curve的Vote Escrow锁定机制和Olympus DAO的(3,3)博弈论结合,用户锁定代币获得投票权,通过投票引导协议资源分配,项目方可以"贿选"吸引选票,所有手续费分配给投票者。

这套机制的精妙之处在于构建了一个自我强化的Flywheel:质押比例提升→代币卖压降低→价格上涨→做市APR提高→吸引更多流动性→交易量增加→手续费回馈增加,形成正向循环。某种程度上,这是DeFi协议可持续发展的"圣杯"机制。

——Sui技术底座:Move系公链的天然优势

Momentum选择Sui并非偶然。ve(3,3)机制涉及复杂的投票、"贿选"、奖励分配等交互,对底层性能和安全性要求极高。

1)性能层面,Sui通过并行事务处理达到297,000 TPS,能够支撑ve(3,3)的高频复杂交互;

2)安全层面,Move语言的资源所有权模型和对象中心设计,使得动态权重管理、复杂状态变更更加安全可靠;

3)用户体验层面,Sui的亚秒级确认确保投票和奖励分配的及时执行,这对"贿选"机制的时效性至关重要。

通俗点说,如果把ve(3,3)比作一台精密的飞轮机器,Sui就是为这台机器量身打造的高性能发动机。

——强势背景加持:卡塔尔皇室+基金会的双重buff

ve(3,3)机制的冷启动是个典型的鸡生蛋问题,需要强大的初始资源支撑。Momentum的投资阵容堪称豪华: @Coinbase Ventures、 @SuiNetwork 基金会、 @jump_ Crypto ,以及具有卡塔尔皇室背景的Varys Capital作为领投方。

更关键的是,创始人 @ChefMMT_X 曾参与Meta的Diem项目,而Diem正是Sui的前身。这种技术传承使得Momentum获得了Sui基金会和Mysten Labs的双重支持,不仅是资金层面,更是生态资源的全面倾斜。

事实上,成功的ve(3,3)项目(如Base链上的Aerodrome)都离不开基金会支持。强大的背景为Momentum快速积累TVL、启动飞轮提供了关键助力。

——生态定位:不只是DEX,更是Sui的资源分配中心

从一个月冲进Sui链TVL前十的表现看,Momentum显然有着成为Sui生态DEX基础设施的野心。ve(3,3)机制使其不仅仅是交易平台,更像一个生态流量分发中心。

通过"贿选"机制,Sui生态的新项目可以通过Momentum获得流动性支持,这使得Momentum有潜力复制Curve在以太坊生态的成功,成为Sui DeFi乐高的重要组件。

毋庸置疑,在高性能L1的竞争中,率先建立起强大DeFi基础设施的链更容易获得生态红利,而Momentum正是Sui在这场竞争中的重要武器。

以上。

不过,也有一些大的挑战需要说明。最近 @CetusProtocol 黑客事件就是个典型例子,虽然MMT本身安全无虞,但整个Sui生态的避险情绪导致TVL出现明显回落。目前看来是Cetus代码层面的问题,不涉及Sui底层安全,但生态风险的传导效应不容忽视。

某种程度上,这也印证了我们此前提到的风险:首先是Sui生态层面的中心化争议,市场需要消化一阵子;其次,ve(3,3)机制本身的可持续性仍待验证,历史上不少类似项目在初期Fomo后都面临飞轮逆转风险,一旦TVL增长放缓,正向循环就可能变成负向螺旋。

不过,危机往往也是机会。Cetus事件后的避险情绪消散,可能为Momentum等安全项目带来流动性回流的窗口期。最后,即将到来的7月TGE将是关键考验,代币分发和长期激励机制设计将直接影响项目的可持续发展。

总的来说,Momentum通过ve(3,3)机制在Sui上的快速崛起,代表了Move系公链在DeFi创新方面的重要尝试。这既是Sui要面临的考验,也是ve(3,3)这套老DeFi模式能否基于新沃土焕发生命力的关键大考。
最近,@SpaceandTimeDB 上线币安引起了市场广泛讨论,一时间带火了"ZK数据基础设施"这个之前相对冷门的叙事方向。作为连接智能合约与链外数据的桥梁, $SXT 在尝试解决链上世界一个更底层的痛点:数据的可信执行和验证。接下来,谈谈我的观察: 1)Space and Time从本质上看是一个去中心化的一层区块链(SXT Chain),但它的核心价值并非在于构建通用智能合约平台,而是另辟蹊径专注于解决一个明确的问题:实现零知识证明下的可信数据处理。其杀手锏Proof of SQL让防篡改数据表不再是纸上谈兵,通过ZK技术实现了查询的可验证性和数据的完整性双保险。 换个角度看,这彻底颠覆了区块链世界处理数据的固有思路:过去,智能合约要么忍受链上存储的天价Gas成本,要么被迫信任中心化API和预言机。SXT则提供了第三条路径:构建一个专用的去中心化数据层,结合链上加密承诺和链下SQL执行,使数据处理既安全可信又高效低成本。 2)从技术架构上看,SXT网络包含三个关键组件: 1、Indexer Nodes:充当数据收集者,负责从主流区块链获取实时和历史数据,转化为SQL关系型格式; 2、Prover Nodes:则负责计算引擎角色,处理查询请求,对防篡改表执行ZK-proven SQL查询,生成亚秒级的ZK证明; 3、SXT Chain Validators:相当于数据公证人,维护网络完整性,处理数据插入,通过BFT共识对链上加密承诺进行集体背书。 这套架构实现了链上存储仅保存加密承诺(类似数据指纹),而非完整数据,大幅降低了链上存储成本。更重要的是,这些承诺是可更新/同态的,意味着更新数据时无需重新计算整个数据集的指纹,只需在原指纹基础上叠加变更即可——这正是解决传统ZK方案在大数据处理时遭遇的性能瓶颈的关键一招。 3)SXT的Proof of SQL不只是一个技术创新,更是解决了目前ZK证明系统在处理大规模数据时的核心痛点: 1、可扩展性:传统ZK证明在处理大数据集时效率低下,而SXT声称可实现毫秒级ZK证明生成,若链上验证Gas消耗低至150k,在整个ZK Prove领域都是一大突破; 2、开发友好性:提供了开发者熟悉的SQL接口,而非复杂的ZK电路编程,显著降低了开发门槛; 3、通用性:不仅适用于SXT自身的去中心化数据库,还可应用于传统数据库(如PostgreSQL, Snowflake),扩展了技术的适用范围。 用抽象一层的视角来理解:SXT实际上是为区块链世界打造了一个"可信数据计算中台",突破了智能合约天然的数据盲区,让链上应用不再是数据孤岛。相当于一套"查询协处理器",解决了智能合约无法直接访问历史链上数据、跨链数据、链下数据或复杂聚合数据的固有局限。 4)抛开技术叙事,SXT的商业价值或许更值得关注。其应用场景几乎覆盖了当下Web3的所有热点: 1、ZK-Rollups/L2优化:作为L2的数据层,降低Gas成本,增强扩展性;2、跨链安全桥接:提供多链数据验证,增强桥的安全性;3、去中心化DApp后端:替代传统中心化后端,提供可验证的数据服务;除此之外,还包括数据驱动的DeFi、RWA、GameFi和SocialFI等一切面临链上存储瓶颈的应用场景。 5)最后,再来看看SXT的代币经济模型设计,在我看来颇有种传统POS+数据市场的韵味: 1、验证者(Validators):质押SXT参与网络安全,获取网络费用和代币排放奖励;2、表格所有者(Table Owners):创建和维护防篡改数据表,通过插入费和查询费获利;3、用户(Users):支付查询费使用网络服务。 这个模型最妙的地方在于将"查询费"在数据提供者和验证者之间分成,形成了一个自驱动的数据市场生态,数据越有价值,查询量越大,各方获益越多,从而吸引更多优质数据入场,完成正向循环。 以上。 总的来说, $SXT 最大的创新价值在于打造了一套将SQL这个传统数据库工具与Web3零信任架构相结合的解决方案,使得区块链生态能处理更复杂的数据逻辑。这不仅弥补了智能合约"先天数据短板",更为那些对数据质量和处理能力有严苛要求的企业级应用提供了上链的可行路径。 随着项目与zkSync、Avalanche、Chainlink等头部生态的深度绑定,再加上币安这块金字招牌,SXT已然有了冲击主流基础设施的"入场券"。当然,挑战也很明显,技术落地仍需克服去中心化与性能的天然矛盾,且市场教育和开发者采用需要时间。
最近,@SpaceandTimeDB 上线币安引起了市场广泛讨论,一时间带火了"ZK数据基础设施"这个之前相对冷门的叙事方向。作为连接智能合约与链外数据的桥梁, $SXT 在尝试解决链上世界一个更底层的痛点:数据的可信执行和验证。接下来,谈谈我的观察:

1)Space and Time从本质上看是一个去中心化的一层区块链(SXT Chain),但它的核心价值并非在于构建通用智能合约平台,而是另辟蹊径专注于解决一个明确的问题:实现零知识证明下的可信数据处理。其杀手锏Proof of SQL让防篡改数据表不再是纸上谈兵,通过ZK技术实现了查询的可验证性和数据的完整性双保险。

换个角度看,这彻底颠覆了区块链世界处理数据的固有思路:过去,智能合约要么忍受链上存储的天价Gas成本,要么被迫信任中心化API和预言机。SXT则提供了第三条路径:构建一个专用的去中心化数据层,结合链上加密承诺和链下SQL执行,使数据处理既安全可信又高效低成本。

2)从技术架构上看,SXT网络包含三个关键组件:

1、Indexer Nodes:充当数据收集者,负责从主流区块链获取实时和历史数据,转化为SQL关系型格式;

2、Prover Nodes:则负责计算引擎角色,处理查询请求,对防篡改表执行ZK-proven SQL查询,生成亚秒级的ZK证明;

3、SXT Chain Validators:相当于数据公证人,维护网络完整性,处理数据插入,通过BFT共识对链上加密承诺进行集体背书。

这套架构实现了链上存储仅保存加密承诺(类似数据指纹),而非完整数据,大幅降低了链上存储成本。更重要的是,这些承诺是可更新/同态的,意味着更新数据时无需重新计算整个数据集的指纹,只需在原指纹基础上叠加变更即可——这正是解决传统ZK方案在大数据处理时遭遇的性能瓶颈的关键一招。

3)SXT的Proof of SQL不只是一个技术创新,更是解决了目前ZK证明系统在处理大规模数据时的核心痛点:

1、可扩展性:传统ZK证明在处理大数据集时效率低下,而SXT声称可实现毫秒级ZK证明生成,若链上验证Gas消耗低至150k,在整个ZK Prove领域都是一大突破;

2、开发友好性:提供了开发者熟悉的SQL接口,而非复杂的ZK电路编程,显著降低了开发门槛;

3、通用性:不仅适用于SXT自身的去中心化数据库,还可应用于传统数据库(如PostgreSQL, Snowflake),扩展了技术的适用范围。

用抽象一层的视角来理解:SXT实际上是为区块链世界打造了一个"可信数据计算中台",突破了智能合约天然的数据盲区,让链上应用不再是数据孤岛。相当于一套"查询协处理器",解决了智能合约无法直接访问历史链上数据、跨链数据、链下数据或复杂聚合数据的固有局限。

4)抛开技术叙事,SXT的商业价值或许更值得关注。其应用场景几乎覆盖了当下Web3的所有热点:

1、ZK-Rollups/L2优化:作为L2的数据层,降低Gas成本,增强扩展性;2、跨链安全桥接:提供多链数据验证,增强桥的安全性;3、去中心化DApp后端:替代传统中心化后端,提供可验证的数据服务;除此之外,还包括数据驱动的DeFi、RWA、GameFi和SocialFI等一切面临链上存储瓶颈的应用场景。

5)最后,再来看看SXT的代币经济模型设计,在我看来颇有种传统POS+数据市场的韵味:

1、验证者(Validators):质押SXT参与网络安全,获取网络费用和代币排放奖励;2、表格所有者(Table Owners):创建和维护防篡改数据表,通过插入费和查询费获利;3、用户(Users):支付查询费使用网络服务。

这个模型最妙的地方在于将"查询费"在数据提供者和验证者之间分成,形成了一个自驱动的数据市场生态,数据越有价值,查询量越大,各方获益越多,从而吸引更多优质数据入场,完成正向循环。

以上。

总的来说, $SXT 最大的创新价值在于打造了一套将SQL这个传统数据库工具与Web3零信任架构相结合的解决方案,使得区块链生态能处理更复杂的数据逻辑。这不仅弥补了智能合约"先天数据短板",更为那些对数据质量和处理能力有严苛要求的企业级应用提供了上链的可行路径。

随着项目与zkSync、Avalanche、Chainlink等头部生态的深度绑定,再加上币安这块金字招牌,SXT已然有了冲击主流基础设施的"入场券"。当然,挑战也很明显,技术落地仍需克服去中心化与性能的天然矛盾,且市场教育和开发者采用需要时间。
随着 @solana 的Alpenglow协议升级将交易确认时间压缩至惊人的100-150毫秒,这标志着Solana和以太坊两大公链巨头的竞争已经突破了纯技术指标的比拼,进入了一个全新阶段:不再是跑分大战,而是商业模式和应用落地的真正考验。 Solana的挑战:拥有了毫秒级的确认速度后,Solana面临着与以太坊曾经相似的生态落地难题。当你的引擎已经快到超越了赛道需求,接下来该怎么办? Solana需要向市场证明,除了MEME之外,毫秒级确认能带来什么真正的革命性应用?目前大多数DeFi和NFT应用在次秒级确认环境下已经运行良好,很难对Solana的技术实力充分利用。需要开创那些"只有毫秒级确认才能实现"的应用类别,否则其技术优势将被大大低估。 以太坊的挑战:在Layer2生态初具规模,性能瓶颈逐渐被缓解,以太坊需要更有力地证明其去中心化和安全性优势在机构采纳方面的实际价值。去中心化和安全性共识到底值多少钱? 以太坊需要证明其安全性和去中心化不仅仅是技术理念,而是能转化为实际商业价值的核心竞争力。特别是在稳定币、DeFi和RWA(真实世界资产)领域,以太坊需要加快传统金融机构的整合步伐。 一个共生共繁荣的结果是,二者不再拼杀个你死我活,而是功能性分工:Solana很可能成为"性能密集型"应用的首选平台,而而以太坊则巩固其作为"价值存储层"的地位。对于整个行业来说,这种竞争将推动区块链技术走向更加多元和成熟的未来。
随着 @solana 的Alpenglow协议升级将交易确认时间压缩至惊人的100-150毫秒,这标志着Solana和以太坊两大公链巨头的竞争已经突破了纯技术指标的比拼,进入了一个全新阶段:不再是跑分大战,而是商业模式和应用落地的真正考验。

Solana的挑战:拥有了毫秒级的确认速度后,Solana面临着与以太坊曾经相似的生态落地难题。当你的引擎已经快到超越了赛道需求,接下来该怎么办?

Solana需要向市场证明,除了MEME之外,毫秒级确认能带来什么真正的革命性应用?目前大多数DeFi和NFT应用在次秒级确认环境下已经运行良好,很难对Solana的技术实力充分利用。需要开创那些"只有毫秒级确认才能实现"的应用类别,否则其技术优势将被大大低估。

以太坊的挑战:在Layer2生态初具规模,性能瓶颈逐渐被缓解,以太坊需要更有力地证明其去中心化和安全性优势在机构采纳方面的实际价值。去中心化和安全性共识到底值多少钱?

以太坊需要证明其安全性和去中心化不仅仅是技术理念,而是能转化为实际商业价值的核心竞争力。特别是在稳定币、DeFi和RWA(真实世界资产)领域,以太坊需要加快传统金融机构的整合步伐。

一个共生共繁荣的结果是,二者不再拼杀个你死我活,而是功能性分工:Solana很可能成为"性能密集型"应用的首选平台,而而以太坊则巩固其作为"价值存储层"的地位。对于整个行业来说,这种竞争将推动区块链技术走向更加多元和成熟的未来。
在和一些AI+Crypto赛道的Builder讨论问题时,发现大家对“AI Agent”的定义本身怨念都很深,而“AI Copilot”的说法似乎更务实一些? 1)AI Agent本质上是一种拥有独自自主性的代理人AI,意图让AI无需用户监督而能独立分析、思考甚至执行任务。 这听起来很cool,但大凡以此为目标而实际却要为AI工作流不断的调教、纠错和兜底时,就会发现,AI Agent的概念或许过于理想化了,还不如承认让AI 自主性上过度营销问题,用AI Copilot来定义更务实一些; 2)AI Copilot顾名思义人是决策和操纵者而AI只是工具,就像开飞机一样,副驾驶可以处理很多标准化的程序,但关键决策还需要由主驾驶来做。 这样给AI定位的话,虽然会牺牲一些智能感,但对人编写Prompt的能力、人组合应用各类AI LLMs工具的能力、以及人判断AI 幻觉驾驭AI的能力都有很大要求,但这样却能让AI工具的效用发挥到最大,也会真正实现AI辅助下人的综合能力增强。 3)当然,把AI Agent退步定位陈AI Copilot并不是对AI 自主化决策行动能力边界的否定,反倒给了大部分人一个陪伴AI共生的黄金窗口期。 对我们个人,与其被动接受迟早被AI取代的那一天,不如在AI真正实现超级智能前学会驾驭AI。 对AI赛道创业,应该做一次心态矫正,与其盲目炒作AI的自主性,不如专注于让AI成为更好的助手,切莫用完全自主、无需人工干预这样的宣传误导用户。 说到底,AI Agent vs AI Copilot不只是命名问题,而是整个AI行业对于AI和人关系的一次根本性的思考。
在和一些AI+Crypto赛道的Builder讨论问题时,发现大家对“AI Agent”的定义本身怨念都很深,而“AI Copilot”的说法似乎更务实一些?

1)AI Agent本质上是一种拥有独自自主性的代理人AI,意图让AI无需用户监督而能独立分析、思考甚至执行任务。

这听起来很cool,但大凡以此为目标而实际却要为AI工作流不断的调教、纠错和兜底时,就会发现,AI Agent的概念或许过于理想化了,还不如承认让AI 自主性上过度营销问题,用AI Copilot来定义更务实一些;

2)AI Copilot顾名思义人是决策和操纵者而AI只是工具,就像开飞机一样,副驾驶可以处理很多标准化的程序,但关键决策还需要由主驾驶来做。

这样给AI定位的话,虽然会牺牲一些智能感,但对人编写Prompt的能力、人组合应用各类AI LLMs工具的能力、以及人判断AI 幻觉驾驭AI的能力都有很大要求,但这样却能让AI工具的效用发挥到最大,也会真正实现AI辅助下人的综合能力增强。

3)当然,把AI Agent退步定位陈AI Copilot并不是对AI 自主化决策行动能力边界的否定,反倒给了大部分人一个陪伴AI共生的黄金窗口期。

对我们个人,与其被动接受迟早被AI取代的那一天,不如在AI真正实现超级智能前学会驾驭AI。

对AI赛道创业,应该做一次心态矫正,与其盲目炒作AI的自主性,不如专注于让AI成为更好的助手,切莫用完全自主、无需人工干预这样的宣传误导用户。

说到底,AI Agent vs AI Copilot不只是命名问题,而是整个AI行业对于AI和人关系的一次根本性的思考。
此次以太坊 $ETH 的大幅上涨,不少人回过头来追问会不会和最近Pectra升级有关?答案可能并不是。 Pectra升级更像是坎昆升级的"收尾工作",主要是一些底层优化和细节完善,而非突破性的技术创新。 从技术视角看,Pectra升级包含的四个EIP都指向同一个方向:让以太坊运行得更稳定、更高效。EIP-7044的状态过期标准化、EIP-7524的燃料限制重新定义、EIP-7697的交易管道优化,以及EIP-6789的难度调整改进——这些都是典型的"修修补补"型升级,解决坎昆升级后留下的一些边缘问题。 真正决定此次以太坊价格走势的逻辑其实是被过度FUD后的“价值修复”。 过去几个月,以太坊确实经历了一轮"集中火力"般的质疑:layer2流动性分散被放大成生态分裂,与Solana的性能对比被解读成技术路线失败,以及众layer2生态应用扩展不及预期,Restaking、模块化、zk等技术叙事堆叠无法被价值捕获等等; 当所有焦点都聚焦在以太坊的问题上时,人们忽略了一些关键事实:DeFi总锁仓价值依然稳定在$119B,坎昆升级确实大幅降低了layer2成本,ETF资金流入持续增强,RWA和PayFi等新叙事也主要在以太坊生态发展。 大以太的基本面并没有像市场情绪反映的那么糟糕。 而机构投资者显然看穿了这种情绪失衡。最典型的例子是Abraxas Capital那242,652 ETH的巨额购买(约$5.61亿)。而且5月9-14日期间,大额ETH转账(>$1M)也显著增加,机构级钱包地址ETH余额明显增长,这些都表明是有计划的机构大规模建仓行为。 所以,非要给此轮以太坊上涨找一个逻辑的话:以太坊被FUD过头了,需要对现有价值重新发现,而机构趁机抢先抄底了?
此次以太坊 $ETH 的大幅上涨,不少人回过头来追问会不会和最近Pectra升级有关?答案可能并不是。

Pectra升级更像是坎昆升级的"收尾工作",主要是一些底层优化和细节完善,而非突破性的技术创新。

从技术视角看,Pectra升级包含的四个EIP都指向同一个方向:让以太坊运行得更稳定、更高效。EIP-7044的状态过期标准化、EIP-7524的燃料限制重新定义、EIP-7697的交易管道优化,以及EIP-6789的难度调整改进——这些都是典型的"修修补补"型升级,解决坎昆升级后留下的一些边缘问题。

真正决定此次以太坊价格走势的逻辑其实是被过度FUD后的“价值修复”。

过去几个月,以太坊确实经历了一轮"集中火力"般的质疑:layer2流动性分散被放大成生态分裂,与Solana的性能对比被解读成技术路线失败,以及众layer2生态应用扩展不及预期,Restaking、模块化、zk等技术叙事堆叠无法被价值捕获等等;

当所有焦点都聚焦在以太坊的问题上时,人们忽略了一些关键事实:DeFi总锁仓价值依然稳定在$119B,坎昆升级确实大幅降低了layer2成本,ETF资金流入持续增强,RWA和PayFi等新叙事也主要在以太坊生态发展。

大以太的基本面并没有像市场情绪反映的那么糟糕。

而机构投资者显然看穿了这种情绪失衡。最典型的例子是Abraxas Capital那242,652 ETH的巨额购买(约$5.61亿)。而且5月9-14日期间,大额ETH转账(>$1M)也显著增加,机构级钱包地址ETH余额明显增长,这些都表明是有计划的机构大规模建仓行为。

所以,非要给此轮以太坊上涨找一个逻辑的话:以太坊被FUD过头了,需要对现有价值重新发现,而机构趁机抢先抄底了?
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateur(trice)s préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone

Dernières actualités

--
Voir plus
Plan du site
Préférences en matière de cookies
CGU de la plateforme