只有當 AI 真正「下沉」到每個裝置時,去中心化協作才會從概念變成剛需? (前情提要:蘋果 AI 不玩了?考慮套皮 ChatGPT 或 Claude 升級 Siri,挽救自研進展落後 ) (背景補充:a16z內部覆盤:AI社交產品或許從根本上就不成立 ) 最近觀察 AI 行業,發現個越來越「下沉」的變化:從原先拼算力集中和「大」模型的主流共識中,演變出了一條偏向本地小模型和邊緣計算的分支。 這一點,從 Apple Intelligence 覆蓋 5 億裝置,到微軟推出 Windows 11 專用 3.3 億引數小模型 Mu,再到Google DeepMind 的機器人「脫網」操作等等都能看出來。 會有啥不同呢?雲端 AI 拼的是引數規模和訓練資料,燒錢能力是核心競爭力;本地 AI 拼的是工程優化和場景適配,在保護隱私、可靠性和實用性上會更進一步。(主要通用模型的幻覺問題會嚴重影響垂類場景滲透) 這其實對 web3 AI 會有更大的機會,原來大家拼「通用化」(計算、資料、演算法)能力時自然被傳統 Giant 大廠壟斷,套上去中心化的概念就想和Google、AWS、OpenAI 等競爭簡直癡人說夢,畢竟沒有資源優勢、技術優勢,也更沒有使用者基礎。 但到了本地化模型 + 邊緣計算的世界,區塊鏈技術服務面臨的形勢可就大為不同了。 當 AI 模型執行在使用者裝置上時,如何證明輸出結果沒有被篡改?如何在保護隱私的前提下實現模型協作?這些問題恰恰是區塊鏈技術的強項… 有注意到一些 web3 AI 相關新專案,諸如最近由 Pantera 零投 10M 的 @Gradient_HQ 推出的資料通訊協議 Lattica,來解決中心化 AI 平臺的資料壟斷和黑箱問題;@PublicAI_ 腦電波裝置 HeadCap採集真實人類資料,構建「人工驗證層」,已經實現了 14M 的收入;其實,都在嘗試解決本地 AI 的「可信性」問題。 一句話:只有當 AI 真正「下沉」到每個裝置時,去中心化協作才會從概念變成剛需? #Web3AI 專案與其繼續在通用化賽道里內卷,不如認真思考怎麼為本地化 AI 浪潮提供基礎設施支援? 相關報導 矽谷數百億美元搶AI人才,外傳祖克柏有張「獵頭名單」真急了? 微軟報告:全球員工正陷入「無限工時」不關機泥淖,用 AI 找回下班自由的三法則 Robinhood上線代幣化美股:送OpenAI與SpaceX股票、打造自家L2,HOOD創新高"AI「下沉」是 Web3 的機遇嗎?去中心化何時會變剛需"這篇文章最早發佈於動區BlockTempo(動區動趨-最具影響力的區塊鏈新聞媒體)。