I post critical crypto market data and my most reliable trade signals—always with charts & real examples. 關注我將不定期得到幣圈總體經濟數據重要數據,也將把我勝率高的進場出場點位告訴大家有圖有實盤。
Si eres nuevo en futuros, es fácil perder dinero. Puedes copiar las operaciones del trader Aston. Se recomienda empezar con al menos 600 dólares. El enlace está en el perfil.
根據外媒報導, Google 已與美國政府簽署協議,開放美國國防部(現已由川普更名為戰爭部)將其人工智慧模型用於機密任務。這項決定讓 Google 與 OpenAI、xAI 等科技巨頭一樣,正式成為美國軍方機密 AI 技術的供應商。 (OpenAI 搶下五角大廈 AI 合約!Sam Altman 坦承「倉促決定」,強調不涉大規模監控與自動武器) Google AI 模型將投入國防任務 The Information 報導,這份合約將允許美國五角大廈將 Google 的人工智慧技術用於「任何合法的政府目的」。這些機密網路通常用於處理高度敏感的軍事工作,涵蓋任務規劃與武器目標鎖定等範疇。Google 公關發言人向媒體表示,這項新協議是現有合約的修正案。 AI 武器化與安全規範:Google 無權否決美軍決策 針對外界對 AI 武器化的疑慮,合約中明確指出,該 AI 系統「不打算也不應在缺乏適當人類監督與控制的情況下,用於國內大規模監控或自主武器(包含目標選擇)」。根據報導,合約同時也附加了一項關鍵條款,明定該協議「不賦予任何控制或否決合法政府作戰決策的權利」。此外,協議更要求 Google 必須配合美國政府的要求,協助調整企業的 AI 安全設定與過濾機制。 (ChatGPT 解除安裝數飆升三倍,OpenAI 五角大廈合作案引資安監控擔憂) Google 上百員工請願拒絕該協議 據報導,超過 600 名 Google 員工(包含旗下頂尖 AI 實驗室 DeepMind 團隊成員)連署致信執行長 Sundar Pichai,強烈要求公司拒絕與軍方簽署任何機密 AI 專案。員工在信中強調: 「我們希望看到 AI 造福人類,而不是看到它被用於不人道或極其有害的方式,這包括致命自主武器和大規模監控。」 針對此事 Google 並未立即對外作出回應,顯然儘管內部員工強烈反對,這項與美國軍方合作的協議最終依然拍板定案。 (當 AI 成核武級武器:Ben Thompson 談 Anthropic 與五角大廈衝突) 這篇文章 Google 與五角大廈簽署機密 AI 合約,上百名員工連署反對無效 最早出現於 。
賓州華頓商學院教授 Ethan Mollick 於 4/25 的 X 平台貼文提出一個對學術界具強烈衝擊的觀察:當前的 AI agent 已經能在沒有原始論文與沒有原始碼的情況下,僅憑公開的方法描述與資料,獨立重現複雜的學術研究結果。Mollick 進一步指出,這些 AI 重現的版本與原論文有出入時,「錯誤往往出在人類論文本身,而非 AI」。這是科研可重現性危機在生成式 AI 時代的一個實質轉折—過去需要昂貴人力才能進行的同行驗證,正在被 AI 大規模、低成本完成。 Claude 重現多篇論文,再以 GPT-5 Pro 雙重驗證 Mollick 在他的 OneUsefulThing 部落格與本次推文中,描述了他對 Claude 的具體實驗:把一篇學術論文交給 Claude,讓它打開存檔、整理檔案、把統計用的 STATA 程式碼自動轉換為 Python,再逐一執行論文中的所有發現。Claude 完成後,他再用 GPT-5 Pro 對同一份重現結果做第二輪檢查。多篇論文被以同樣的方式測試,結果普遍成功,僅在資料檔案過大或原始 replication data 本身有問題時受阻。 對學術界而言,這個流程過去通常需要研究助理花費數週甚至數月。Mollick 描述的時間規模是一個下午到一天,且運行成本只有商用 LLM API 的 token 費用。 錯誤多在人類原文,不是 AI 更具爭議性的是 Mollick 對「誰錯了」的判斷。他在推文中明言,當 AI 重現結果與原論文不一致時,多數情況不是 AI 弄錯,而是原論文有資料處理錯誤、模型誤用、或結論超出資料支撐的範圍。心理學、行為經濟學、管理學等社會科學近十年內已出現多次重大可重現性危機事件,最有名的是 2015 年 Open Science Collaboration 的大型重現研究,僅約 36% 的心理學論文結果能被獨立重現。AI agent 把這個檢驗過程從「需要人力配比」推到「可被普遍執行」的邊界。 學會仍禁 AI 入審稿,制度落後技術 Mollick 在另一則 4/25 推文中具體點名其所屬領域最大的學會 Academy of Management 仍明文禁止 AI 進入論文審稿流程。他引用既有研究指出,AI 審稿在準確度、一致性與偏見控制上已優於部分傳統人類審稿人,因此「禁止」這個立場可能反向加重既有審稿系統的失靈。這種制度與技術之間的落差,是接下來 1–2 年學術出版界、學會與資助機構都必須面對的政策議題。 對讀者而言,這場辯論並非局限於學界。當 AI agent 能即時驗證研究發現,產業界的研究引用、政策報告、財務決策中的學術根據,將進入一個「結論是否承受得住獨立 AI 重現」的新檢驗門檻。對應 Mollick 在另一則推文的補充,他認為政府是唯一能在工具強度持續上升時為這個檢驗機制定錨的單位—而政策設計的複雜度,將同步成為 AI 治理討論中相對被忽視的一條主軸。 這篇文章 AI Agent 已可獨立重現複雜學術論文:Mollick 稱錯誤多在人類原文而非 AI 最早出現於 。
Jane Street 於本週四向紐約南區地方法院提交文件,請求法官駁回 Terraform Labs 破產管理人 Todd Snyder 提出的損害賠償訴訟,Jane Street 主張該訴訟意在轉移 Terraform 自身詐欺行為的責任,強調相關刑事與民事法律責任早已由法庭裁定。 Terraform 破產管理人指控內線交易 Terraform Labs 破產管理人 Todd Snyder 於 2024 年 1 月發起訴訟,指控 Jane Street 利用非公開資訊進行不當交易,進而加速 TerraUSD (UST) 崩潰,訴狀詳細指出 2022 年 5 月 7 日,當 Terraform 從 Curve 流動性池中提取 1.5 億枚 UST 後, Jane Street 關聯的錢包隨即在數分鐘內提取 8,500 萬枚 UST,破產管理人認為,這種搶先交易行為引發了市場連鎖恐慌,最終導致 UST 與美元脫鉤,這場崩盤在短短幾天內造成約 400 億美元的市值蒸發,對整體加密貨幣產業產生嚴重的連鎖衝擊。 Jane Street 否認指控,主張責任已定調 針對上述指控,Jane Street 在最新提交的法律文件中予以全面否認,並要求法院禁止 Terraform 再次提起相同訴訟。Jane Street 辯稱 Terra 生態系的崩潰核心源於 Terraform 內部的欺詐計劃,該公司並未參與其中。文件進一步指出,Terraform 創始人 Do Kwon 先前已在刑事與民事訴訟中,針對串謀與電信詐欺等罪名認罪,目前正在服刑。Jane Street 強調 Do Kwon 本人曾公開表示相關痛苦由其一人造成,破產管理人的行為僅是試圖從外部機構榨取資金,以彌補公司自身不當行為造成的損失。 目前法院正在權衡如何界定這場 400 億美元崩盤的法律責任歸屬,此案的進展受到金融與法律界的高度關注。Jane Street 堅稱針對 Terraform 詐欺行為的審判與處罰已經完成,不應將責任轉嫁給市場參與者。若法院接受 Jane Street 的駁回請求,將確立破產實體在倒閉後追討損失的法律邊界;反之,若案件繼續審理,則可能深入調查造市商與協議開發商之間的資訊交換機制。此裁決不僅影響 Jane Street 的法律處境,也將成為未來加密資產崩盤案件中,關於「內線交易」與「市場崩潰責任」判定的重要指標。 Terraform Labs 成立於 2018 年,在經歷 2022 年的劇烈崩盤後,於 2024 年 1 月正式進入破產保護程序。該公司崩潰引發了多間加密貨幣企業連環倒閉,引發監管機構對穩定幣風險的高度警覺,隨著 Do Kwon 被陪審團認定犯有證券詐欺罪,Terraform 的破產清算過程變得極為複雜,管理人試圖透過追討疑似不當得利來償還債權人。截至目前為止,法院尚未對 Jane Street 的駁回動議作出最終裁定。 這篇文章 Jane Street 請求法院駁回 Terraform Labs 對 UST 崩盤之索賠訴訟 最早出現於 。