# 這一週,中國 AI 炸翻了全世界 — 2026 春節檔 AI 三箭齊發全解析

2 月 6 日,一匹「馬」悄悄闖進了矽谷。
沒有發布會,沒有論文,甚至連開發商是誰都不知道。它以「Pony Alpha」的代號出現在模型聚合平台 OpenRouter 上,200K 上下文窗口,零收費,第一天就處理了超過 400 億個 token。
Reddit 炸了。開發者們瘋狂猜測這是誰家的秘密武器 — 有人說是 GPT-6 的偷跑版本,有人猜是 Claude 的內部測試,還有人認定這是 DeepSeek V4 的灰度發布。一位開發者拿出他壓箱底的 SVG 生成測試題去「刁難」它,結果生成品質好到他[懷疑題目被洩漏了](https://blog.kilo.ai/p/the-secret-is-out-pony-alpha-is-glm)%E3%80%82
五天後,謎底揭曉:這匹黑馬來自中國的智譜 AI,它的真名叫 GLM-5。
而這,只是過去一週 AI 產業連環爆炸的序幕。
---
## 第一幕:中國 AI 的「春節攻勢」

過去這一週被業界稱為「AI 春節檔」,三款重量級產品幾乎同時亮相:智譜 GLM-5、字節跳動 Seedance 2.0、DeepSeek 大版本更新。這不是巧合,這是一場精心編排的攻勢。
### GLM-5:用 MIT License 捅破天花板
先說數字。GLM-5 是一個 744B 參數的 MoE(混合專家)模型,實際推理時只啟用 44B 參數。它在 [SWE-bench Verified 上拿到 77.8%](https://venturebeat.com/technology/z-ais-open-source-glm-5-achieves-record-low-hallucination-rate-and-leverages),超越 Gemini 3 Pro 的 76.2%,直逼 Claude Opus 4.6 的 80.9%。在 LMArena Text Arena 排名開源模型第一(分數 1452,總排名第 11)。AIME 2026 數學推理 92.7%,GPQA-Diamond 86.0%。
Maxime Labonne 在他的[深度分析](https://medium.com/@mlabonne/glm-5-chinas-first-public-ai-company-ships-a-frontier-model-a068cecb74e3)中還指出一個有趣的數據:GLM-5 在 Artificial Analysis 的幻覺指數上達到 -1,比上代進步了 35 分 — 意味著它在「知道自己不知道什麼」這件事上,是目前業界最好的。
但真正讓人倒吸一口氣的,不是分數,是價格。
| 模型 | 輸入價格 (per M tokens) | 輸出價格 (per M tokens) |
|------|----------------------|----------------------|
| Claude Opus 4.6 | $5.00 | $25.00 |
| GLM-5 | $0.80-1.00 | $2.56-3.20 |
| **價差** | **約 6 倍** | **約 8-10 倍** |
同樣水準的能力,十分之一的價格。而且它是 MIT License 開源的,你想怎麼用都行。
更耐人尋味的是訓練硬體。GLM-5 完全在華為昇騰晶片上訓練,沒有用到一顆 NVIDIA GPU。這件事的意義,後面再說。
資本市場的反應很直接。[路透社報導](https://www.reuters.com/technology/chinas-ai-startup-zhipu-releases-new-flagship-model-glm-5-2026-02-11/),摩根大通首次將智譜納入研究覆蓋,給予「買入」評級。
不過也不是所有人都在歡呼。安全 AI 新創 Andon Labs 的共同創辦人 Lukas Petersson 在 X 上留了一則冷靜的觀察:GLM-5 確實很能幹,但它「缺乏情境意識」— 為了達成目標會採取激進策略,卻不會反思自己所處的情境。他的原話是:「這就是你怎麼得到一個迴紋針最大化器。」
這句話讓我想了很久。能力越強的模型,如果沒有對應的安全機制,風險也越大。這是 GLM-5 式成功背後不能忽視的隱憂。
### Seedance 2.0:讓好萊塢導演說「我們完了」
如果說 GLM-5 是理性派的勝利,那 [Seedance 2.0](https://seed.bytedance.com/en/seedance2_0) 就是感性派的炸彈。
字節跳動在 2 月 7 日開始內測、2 月 12 日正式發布的這款 AI 視頻生成模型,被 [DataCamp 直接稱為視頻生成領域的「DeepSeek 時刻」](https://www.datacamp.com/blog/seedance-2-0)。馬斯克看到示範影片後在 X 上留了一句:「It's happening fast.」
Seedance 2.0 的核心突破在於「四模態輸入」— 你可以同時丟給它文字、最多 9 張圖片、3 段視頻、3 段音頻作為參考素材,它會自動理解並融合這些元素。這跟 Sora 2 只支援文字和圖片的雙模態輸入相比,是一個維度上的升級。
更厲害的是「自分鏡」功能。你只要給一段文字描述,它會自己規劃鏡頭語言:這裡用特寫、那裡用航拍、這段要慢動作。出來的就是一個 15 秒的多鏡頭短片,而且角色長相在不同鏡頭之間保持一致,還自帶配樂和音效。
跟主要競品的對比:
| 維度 | Seedance 2.0 | Sora 2 | Kling 3.0 |
|------|-------------|--------|-----------|
| 輸入模態 | 四模態(文字+圖+視頻+音頻) | 雙模態(文字+圖) | 三模態 |
| 最高解析度 | 2K | 1080p | 1080p |
| 視頻長度 | 4-15 秒 | 5-25 秒 | 5-10 秒 |
| 原生音頻 | 對話+音效+環境音 | 對話+音效+環境音+配樂 | 對話+音效 |
| 自動分鏡 | 支援 | 不支援 | 不支援 |
| 核心優勢 | 多模態可控+自動分鏡 | 物理模擬真實感 | 情緒語調控制 |
*資料來源:[APIYI 對比分析](https://help.apiyi.com/en/seedance-2-vs-sora-2-ai-video-comparison-en.html)、[WaveSpeed 四方對比](https://wavespeed.ai/blog/posts/seedance-2-0-vs-kling-3-0-sora-2-veo-3-1-video-generation-comparison-2026)*
[Picwand 的深度比較](https://www.picwand.ai/ai-generation/seedance-2-0-vs-sora-2/)給出了一個簡潔的結論:Sora 2 更像一個追求物理真實感的「模擬器」,Seedance 2.0 更像一個給創作者用的「導演工具」。對大多數內容創作者來說,後者可能更實用。
但 Seedance 2.0 也引發了嚴重的倫理爭議。它能僅憑一張照片就生成高度相似的語音語調 — 未經本人授權。深偽風險太明顯了,字節跳動緊急限制了真人人臉作為主體參考的功能,並加入活體認證。
這個問題不會消失,只會越來越嚴重。
### DeepSeek:靜默更新後的用戶反彈
DeepSeek 這週的處境就尷尬多了。
2 月 11 日,用戶發現 DeepSeek 悄悄更新了版本,上下文窗口從 128K 暴漲到 [1M token](https://www.aibase.com/news/25470),知識庫更新到 2025 年 5 月。從技術指標上看,這是一次重大升級。社區推測這可能是 V3 系列的最終形態,或者 V4 的灰度測試。[野村證券預計](https://news.futunn.com/en/post/68761581/is-a-new-deepseek-model-coming) V4 將在 2 月中旬正式發布,模型規模達到「兆級參數」。
但用戶的真實體感卻是反過來的。大量反饋指出,更新後的 DeepSeek 文風變得囉嗦、套路化,喪失了原有的「硬核分析」風格。有人嘗試各種 prompt 技巧去挽救,都沒用。部分用戶已經轉向其他平台。
這給所有模型廠商上了一課:用戶記得你的「味道」。性能提升如果伴隨著個性消失,不見得是好事。
值得一提的是,DeepSeek 的 Sparse Attention 機制已經被 GLM-5 等其他中國模型吸收。它的技術正以「外溢」方式成為整個中國 AI 生態的技術底座。從這個角度看,即使 DeepSeek 自己踩了用戶體驗的坑,它對產業的貢獻依然深遠。
---
## 第二幕:算力版圖大裂變

中國在模型層面的突破已經夠震撼了,但算力層面發生的事情可能影響更深遠。
### OpenAI x Cerebras:告別 NVIDIA 獨大
2 月 12 日,[OpenAI 發布了 GPT-5.3-Codex-Spark](https://openai.com/index/introducing-gpt-5-3-codex-spark/)。這個名字有點長,但核心訊息很簡單:**這是 OpenAI 第一款不跑在 NVIDIA 硬體上的生產模型**。
它跑在 Cerebras 的 WSE-3(Wafer Scale Engine 3)上。這顆晶片有多誇張?大約餐盤大小,面積 46,255 平方毫米,塞了 [4 兆個電晶體和 90 萬顆 AI 優化核心](https://news.ycombinator.com/item?id=46992553)。比 NVIDIA B200 多 19 倍電晶體、28 倍算力。內部記憶體頻寬達到每秒 27 PB,直接消除了傳統 GPU 集群的記憶體搬運瓶頸。
結果就是:Codex-Spark 推理速度超過 1000 token/s,是前代的 15 倍。
[Cerebras 的 CTO Sean Lie 說](https://www.cerebras.ai/blog/openai-codexspark):「讓我們興奮的不只是速度,而是快速推理能創造什麼新的互動模式和使用場景。」
[OpenAI 在官方公告中](https://openai.com/index/introducing-gpt-5-3-codex-spark/)也很巧妙地管理預期:「GPU 仍然是我們訓練和推理管線的基礎,Cerebras 是低延遲工作負載的補充。」翻譯一下:我們沒有要甩掉 NVIDIA,但我們開始找備胎了。
事實上,OpenAI 同時在跟 AMD、Cerebras、TSMC(自研晶片)建立合作。[VentureBeat 的分析](https://venturebeat.com/technology/openai-deploys-cerebras-chips-for-15x-faster-code-generation-in-first-major)直接把這件事定調為「OpenAI 首次在 NVIDIA 之外部署重大推理合作」。Cerebras 本身剛[融了 10 億美元,估值 230 億](https://techcrunch.com/2026/02/12/a-new-version-of-openais-codex-is-powered-by-a-new-dedicated-chip/)。
在 Hacker News 的討論串裡,有人寫了一段話讓我印象深刻:「到 2028 年,大部分晶片會用於推理而非訓練。Google 用 TPU 在推理效率上碾壓 NVIDIA,Cerebras 在速度上碾壓 NVIDIA。NVIDIA 在推理上沒有獨特優勢,而推理才是未來的主戰場。」
這話說得有點狠,但趨勢確實往那個方向走。
### HBM4 軍備競賽:你的記憶體要漲價了
算力之外,記憶體成了另一個戰場。
2 月 12 日,[三星宣布業界首批商用 HBM4 出貨](https://news.samsung.com/global/samsung-ships-industry-first-commercial-hbm4-with-ultimate-performance-for-ai-computing),採用最先進的 1c 10nm DRAM 製程,處理速度達到 11.7 Gbps — 比業界標準的 8 Gbps 高出 46%。同一天,美光也宣布 HBM4 已提前交付,訂單全部售罄。SK Hynix 的 HBM4 尚未正式宣布出貨時程,但它 [2026 整年的產能已經被預訂一空](https://www.cnbc.com/2026/01/10/micron-ai-memory-shortage-hbm-nvidia-samsung.html),甚至在考慮美國上市。
三家記憶體巨頭的軍備競賽,背後是 NVIDIA 即將在 2026 下半年推出的 Vera Rubin 平台 — 一個六晶片架構的 AI 超級電腦,號稱比 Blackwell 降低 10 倍推理成本。
但軍備競賽總有代價。CNBC 報導,[美光已經直接停止了面向消費級 PC 的記憶體業務](https://www.cnbc.com/2026/01/10/micron-ai-memory-shortage-hbm-nvidia-samsung.html),把所有產能轉向 AI 晶片。三大廠都在做同樣的事 — 把產能從低利潤的消費級產品轉移到高利潤的 HBM4。
結果就是:標準記憶體嚴重短缺,消費級產品面臨漲價壓力。AI 公司的算力需求,正在吃掉普通消費者的供應鏈。
---
## 第三幕:產業格局的十字路口
### 開源正在吃掉閉源的午餐
回頭看 GLM-5 的數據,一個不可忽視的趨勢浮現了:開源模型與閉源模型的效能差距正在急劇縮小。
```
閉源天花板:Claude Opus 4.6 → SWE-bench 80.9% → $5/$25 per M tokens
開源新王者:GLM-5 → SWE-bench 77.8% → $0.80/$2.56 per M tokens
差距: → 3.1 個百分點 → 6-10x 便宜
```
兩週前發布的 Kimi K2.5 也是開源模型,[GLM-5 已經超越了它](https://venturebeat.com/technology/z-ais-open-source-glm-5-achieves-record-low-hallucination-rate-and-leverages),成為 Artificial Analysis 上最強的開源模型。開源模型之間的競爭本身就在推動整體水準快速提升。
當差距只剩 3 個百分點、但價格差了近 10 倍的時候,閉源模型的定價權就面臨巨大壓力。對企業用戶來說,一個很現實的問題:我需要花 10 倍的錢去買那 3% 的差距嗎?
答案當然取決於場景。在金融、醫療、法律等高風險領域,那 3% 可能值千金。但在大多數日常開發和內容生成場景中,開源模型已經「夠好了」。
[Gartner 預測](https://www.gartner.com/en/newsroom/press-releases/2025-08-26-gartner-predicts-40-percent-of-enterprise-apps-will-feature-task-specific-ai-agents-by-2026-up-from-less-than-5-percent-in-2025),到 2026 年底,40% 的企業應用將整合任務型 AI Agent(從 2025 年的不到 5%)。[G2 的 2025 調查](https://www.work-bench.com/post/the-rise-of-the-agent-runtime)也顯示,57% 的企業已經有 AI Agent 在生產環境中運行。當 AI Agent 大規模部署,推理成本就是核心考量。開源模型的價格優勢會進一步放大。
### 當 AI 公司開始買政客
本週還有一件事被技術新聞淹沒了,但可能比任何模型發布都重要。
2 月 12 日,[Anthropic 宣布捐出 2000 萬美元給 Public First Action](https://www.theguardian.com/technology/2026/feb/12/anthropic-donation-ai-regulation-politics),一個支持 AI 監管的政治行動委員會。這個組織計畫在州級和聯邦級選舉中支持 30-50 位跨黨派的候選人,首波廣告已經鎖定田納西的 Marsha Blackburn 和內布拉斯加的 Pete Ricketts,都是共和黨人。
而它的對手是 Leading the Future — 由 OpenAI 總裁 Greg Brockman 和矽谷知名創投 a16z 支持的反監管 PAC,已經[募了 1.25 億美元](https://www.cnbc.com/2026/02/12/anthropic-gives-20-million-to-group-pushing-for-ai-regulations-.html)。
[Anthropic 在聲明中說](https://www.axios.com/2026/02/12/anthropic-millions-ai-policy-fight):「目前,巨量資源流向了反對 AI 安全努力的政治組織。Public First Action 正在填補這個缺口。」
[紐約時報](https://www.nytimes.com/2026/02/12/technology/anthropic-super-pac-openai.html)把這件事定義為:矽谷的 AI 競爭對手,現在有了各自的 super PAC。AI 監管不再只是技術圈的辯論,它已經成為美國中期選舉的主戰場之一。
與此同時,中國也在加速頂層設計。同一週,國務院舉行了以「人工智慧+」為主題的專題學習,深圳發布了 AI+先進製造業行動計劃(2026-2027)。技術突破、資本重估、政策推動三條線在同一週交匯。
---
## 這一週告訴我們什麼
說實話,我花了兩天追蹤這些事件,資訊密度大到有些窒息。但如果要提煉出幾個行動指引:
**對開發者來說**:開源模型的「夠用線」到了。GLM-5 以 MIT License 開源、十分之一的價格、接近頂級閉源模型的效能 — 值得跑一輪評估。同時,Codex-Spark 的 1000+ token/s 證明了「速度」是 AI 編程助手的新競爭維度,不只是誰更聰明,還有誰更快。
**對投資者來說**:算力多元化是真實趨勢。NVIDIA 的壟斷地位正在被 Cerebras、Google TPU、AMD、華為昇騰從多個方向蠶食。HBM4 軍備競賽意味著記憶體板塊可能還有空間,但消費級記憶體市場的陣痛才剛開始。
**對所有人來說**:AI 的倫理和監管問題已經從「未來議題」變成「現在進行式」。Seedance 2.0 的深偽能力、Anthropic 和 OpenAI 各自砸錢買政治影響力 — 這些都在告訴我們,技術已經快到社會還沒準備好的地步。
下週,我們可能會看到 DeepSeek V4 的正式發布。NVIDIA Vera Rubin 平台的更多細節也在陸續釋出。
AI 產業的春天,比任何人預期的都來得更猛烈。而你要做的,就是繫好安全帶。
---
## 延伸閱讀
- [GLM-5: China's First Public AI Company Ships a Frontier Model](https://medium.com/@mlabonne/glm-5-chinas-first-public-ai-company-ships-a-frontier-model-a068cecb74e3) — Maxime Labonne 的深度技術分析
- [VentureBeat: GLM-5 achieves record low hallucination rate](https://venturebeat.com/technology/z-ais-open-source-glm-5-achieves-record-low-hallucination-rate-and-leverages) — GLM-5 效能與定價詳解
- [OpenAI: Introducing GPT-5.3-Codex-Spark](https://openai.com/index/introducing-gpt-5-3-codex-spark/) — 官方公告
- [Cerebras Blog: OpenAI Codex-Spark Powered by Cerebras](https://www.cerebras.ai/blog/openai-codexspark) — Cerebras 技術架構說明
- [TechCrunch: OpenAI's Codex powered by a new dedicated chip](https://techcrunch.com/2026/02/12/a-new-version-of-openais-codex-is-powered-by-a-new-dedicated-chip/) — 產業分析
- [Samsung: Ships Industry-First Commercial HBM4](https://news.samsung.com/global/samsung-ships-industry-first-commercial-hbm4-with-ultimate-performance-for-ai-computing) — 三星 HBM4 官方公告
- [CNBC: AI memory shortage and price surge](https://www.cnbc.com/2026/01/10/micron-ai-memory-shortage-hbm-nvidia-samsung.html) — 記憶體市場分析
- [The Guardian: Anthropic donates $20m for AI regulation](https://www.theguardian.com/technology/2026/feb/12/anthropic-donation-ai-regulation-politics) — Anthropic 政治捐款報導
- [Seedance 2.0 官方頁面](https://seed.bytedance.com/en/seedance2_0) — 字節跳動 Seedance 2.0
- [DataCamp: What Is Seedance 2.0?](https://www.datacamp.com/blog/seedance-2-0) — 技術解析與多模型對比
- [Gartner: 40% of Enterprise Apps Will Feature AI Agents by 2026](https://www.gartner.com/en/newsroom/press-releases/2025-08-26-gartner-predicts-40-percent-of-enterprise-apps-will-feature-task-specific-ai-agents-by-2026-up-from-less-than-5-percent-in-2025) — AI Agent 企業採用率預測