# 當 Google 說「我們一顆 NVIDIA 的 GPU 都沒用」—— AI 芯片戰爭的真相  2025 年 11 月 18 日,Google 發布了 Gemini 3。 這本來只是又一個 AI 模型發布的新聞,但一句話讓整個科技圈炸了鍋:「訓練這個史上最強的 AI 模型,我們一顆 NVIDIA 的 GPU 都沒有用。」 等等,什麼? 你懂的,在 AI 這個圈子裡,NVIDIA 就像是那個壟斷了整條街的黑道老大。想練 AI 模型?交保護費。想開數據中心?交保護費。想跑推理服務?還是交保護費。幾乎所有你聽過的 AI 公司,從 OpenAI 到 Meta,都得乖乖排隊買老黃的顯卡。 但 Google 居然說,他們繞過去了。 更誇張的是,Gemini 3 一發布就直接登頂 LMArena 排行榜,把 Elon Musk 的 Grok 4.1 Thinking 擠了下去。如果這不是在吹牛,那 NVIDIA 的護城河是不是沒有想像中那麼深? 這個問題困擾了我好幾天。我花了大量時間研究這背後的技術和商業邏輯,今天想跟你好好聊聊這場 AI 芯片戰爭的真相。 --- ## 廚房裡的戰爭  要理解 Google TPU 和 NVIDIA GPU 的差異,最好的方法是想像兩間完全不同的廚房。 想像一下 NVIDIA 的 GPU 是一間塞滿了上千個大廚的超級廚房。這些大廚什麼都會,能做法餐、能烤牛排、能炒中菜。聽起來很厲害對吧?但這間廚房有個致命的問題。 每次做菜,所有大廚都要同時完成一個奇怪的流程:聽到指令,幾千人同時衝向冰箱拿食材,跑回案板切一刀,然後再跑回去把食材放回冰箱。要切第二刀?再跑一趟。 聽起來是不是特別蠢? 但這就是 GPU 並行運算的實際運作方式。那些大廚大部分時間其實不是在切菜,而是在廚房裡折返跑。結果就是累得滿頭大汗,風扇呼呼轉,電表瘋狂跳,但真正切菜的時間可能只有那麼一小會。 這在專業術語裡叫做「記憶體帶寬瓶頸」。GPU 雖然運算能力強大,但數據需要不斷在處理器和記憶體之間搬來搬去,這個搬運過程消耗了大量的時間和能源。 現在來看 Google 的 TPU。 TPU 用的是一種叫做「脈動陣列」的架構。說得白話一點,就是把那間全能大廚房改成了一條極度高效的流水線。 在這條流水線上,大廚們排成一排。第一個大廚切一刀,不用跑回冰箱,直接把食材遞給旁邊的第二個大廚。第二個大廚再切一刀,遞給第三個。數據就像血液一樣在這條流水線上流動,一步接一步地被處理,中間完全不需要回到記憶體。 這叫做「數據複用」。 Google 的工程師在設計 TPU 時做了一個很聰明的取捨:他們放棄了 GPU 的通用性,專門針對 AI 訓練最核心的運算——矩陣乘法——進行優化。TPU 不會渲染畫面,不能打遊戲,但做矩陣運算的效率,比 GPU 高出一個級別。 根據公開數據,新一代 TPU 的能效比同等級 GPU 高出 2 到 3 倍。這意味著什麼?當你把幾萬甚至幾十萬顆芯片連在一起,日日夜夜跑幾個月去訓練一個 Gemini 3 級別的模型時,省下的電費是一個天文數字。 少跑腿就意味著少發熱,少發熱就意味著少用空調,少用空調就意味著數據中心的運營成本大幅下降。Google 的數據中心 PUE(電力使用效率)是 1.1,遠低於業界平均的 1.58。 這是 Google 跟 NVIDIA 叫板的第一個底氣——物理層面的降維打擊。 --- ## 跟著錢走 但說實話,省電這件事對普通人來說可能沒什麼感覺。讓我們來算一筆更直觀的帳。 看一下 NVIDIA 最新的財報。2025 年第三季,他們的營收是 570 億美元,年增 62%。數據中心業務一個季度就賺了 512 億美元。這些數字都很驚人,但最讓我印象深刻的是另一個數字: 毛利率 73.4%。 這是什麼概念?意味著微軟、Meta、Amazon 這些科技巨頭,每花 100 塊錢買 NVIDIA 的顯卡,只有大約 26 塊錢是真正付給台積電的製造成本和物料成本。剩下的 74 塊,都是交給老黃的「技術溢價」。 你可以把這理解成 AI 時代的過路費。想上 AI 這趟車?你就得交這筆錢。而且這筆過路費從 ChatGPT 爆發以來,基本上就沒有低過 70%。 這就是為什麼 NVIDIA 的市值能衝到 4 兆美元以上。 但 Google 的帳本完全不一樣。 TPU 是自研的,Google 只需要付研發成本和找台積電代工的製造成本。那 74% 的巨額利潤?一分錢都不用掏,全都留在自己兜裡。 這一進一出,差距有多大? 讓我舉個實際的例子。當 Google 在 2024 年底推出 Gemini Flash 2.0 時,他們宣稱性價比是 GPT-4o 的 24 倍。當時很多人覺得這是吹牛,但現在回頭看,這個數字可能是真的——不是因為 Google 的算法突然開了掛,而是因為他們在硬體成本上有著絕對的優勢。 用 NVIDIA 的 GPU 訓練模型,你是頂著 74% 的溢價在燒錢。用 TPU 訓練?你是貼著成本價在跑。 這是商業層面的降維打擊。 --- ## 棋盤上的博弈  聊到這裡,你可能會想:Google 的 TPU 這麼厲害,為什麼不直接拿出來賣,像 NVIDIA 一樣當芯片商?那不是賺翻了? 這就是 Google 最高明的地方。 他們的策略叫做「把肉爛在鍋裡」。 NVIDIA 是賣鋤頭的。想讓大家都來買你的鋤頭,你就得把鋤頭做得特別通用,誰都能用。但 Google 不一樣,他不賣 TPU 芯片,他只賣 TPU 的算力。想用 TPU?沒問題,來 Google Cloud 租服務器。 這招太狠了。 一方面,Google 省去了建立龐大銷售渠道的麻煩,也不用去適配各種千奇百怪的客戶環境。另一方面,也是最重要的,Google 用自家的 Gemini 給 TPU 打了一個響亮的廣告。 你想想,Gemini 3 這次的表現如此亮眼,在多項基準測試中登頂,而它背後全是 TPU 在支撐。這等於 Google 親自下場證明:看,用我的 TPU 能訓練出這麼強的模型。 那些想訓練頂尖模型的公司,比如 Anthropic,比如 Midjourney,看到這個結果會怎麼想? 事實已經給出了答案。 2025 年 10 月 23 日,Anthropic 宣布了一筆歷史性的交易:他們將從 Google 獲得高達 100 萬顆 TPU,這筆交易價值數百億美元,將在 2026 年帶來超過一吉瓦的算力容量。一吉瓦是什麼概念?大約等於一座大型核電站的輸出功率,或者可以供應近百萬戶家庭的用電。 Anthropic 選擇 TPU 的原因很直接:性價比和效率。他們的 CFO Krishna Rao 說:「我們的客戶,從財富 500 強企業到 AI 原生新創,都依賴 Claude 完成最重要的工作。這次擴展的容量確保我們能滿足指數級增長的需求,同時保持模型在業界前沿。」 更有意思的是最近的消息。 2025 年 11 月 25 日,也就是幾天前,傳出 Meta 正在與 Google 談判,計劃在 2027 年將 TPU 部署到自己的數據中心,並可能最早在 2026 年就開始從 Google Cloud 租用 TPU 算力。這個消息一出,NVIDIA 的股價當天下跌了約 4%。 要知道,Meta 是 NVIDIA 最大的客戶之一,2025 年他們計劃在 AI 基礎設施上投入高達 650 億美元。如果連 Meta 都開始考慮 TPU,那代表什麼? 代表 Google 的策略正在奏效。 但這裡有個微妙的轉變值得注意。Google 原本的策略是「只賣算力不賣芯片」,但 Meta 的談判顯示他們正在考慮將 TPU 直接部署到客戶的數據中心。這是一個重大的策略轉型。 根據報導,Google Cloud 的高層認為,擴大 TPU 的採用可以幫助他們搶占 NVIDIA 年營收的 10%——這是一個數百億美元的機會。 Google 說白了就是拿自家最強的模型當廣告,把客戶、算力、還有雲服務全部綁在一起。 --- ## 那堵叫 CUDA 的牆 讀到這裡,你是不是覺得 NVIDIA 要完蛋了?Google 要統一 AI 的度量衡了? 且慢。 雖然 TPU 在硬體和成本上確實有優勢,但在現實世界裡,NVIDIA 依然佔據著數據中心 GPU 市場約 92% 的份額。AMD 只有 4%,其他所有廠商加起來也只有 4%。 為什麼? 因為 NVIDIA 手裡還有最後一道,也是最堅不可摧的護城河。這道護城河的名字叫 CUDA。 CUDA 不只是一個軟體,它是過去 15 年 NVIDIA 的工程師一行一行代碼堆出來的龐大生態系統。 你看,PyTorch 是圍繞 CUDA 建構的。TensorFlow 的 GPU 加速也依賴 CUDA。幾乎所有主流的 AI 框架、函式庫、工具鏈,都是針對 CUDA 優化的。如果你今天想從 NVIDIA 轉到其他平台,你不只是換一塊芯片的問題,你可能需要重寫大量的代碼,重新訓練你的工程團隊,重新適配你的整個開發流程。 這個轉換成本高到什麼程度?高到很多公司寧願繼續付那 74% 的「保護費」,也不願意折騰。 而且 NVIDIA 不是傻傻站在那裡等人來挑戰。看看他們最近的動作: Jensen Huang 在最新的財報電話會議上說:「有很多關於 AI 泡沫的討論。但從我們的角度來看,我們看到的是完全不同的東西。」 他的自信不是沒有根據的。NVIDIA 的 CFO Colette Kress 透露,公司已經有 5000 億美元的 Blackwell 和 Rubin 芯片訂單能見度,時間跨度到 2026 年底。五千億美元!這代表未來兩年的需求基本上已經鎖定了。 Jensen Huang 還說:「Blackwell 的銷售火爆到不行,雲端 GPU 已經賣光了。」 NVIDIA 預計到這個十年末,AI 基礎設施的年支出將達到 3 到 4 兆美元。他們不只是在賣芯片,他們正在把自己從一個芯片公司轉型成一個完整的 AI 平台公司。 這裡有一個很有意思的觀察:雖然 Google、AMD、Amazon 都在發展自己的 AI 芯片,但沒有人形成一個統一的「反 CUDA 聯盟」。Google 用 XLA,AMD 用 ROCm,Amazon 用 Neuron SDK。大家各自為政,這反而讓 CUDA 的地位更加穩固。 只要這道牆不倒,NVIDIA 的帝國就依然穩固。 --- ## 這不是誰輸誰贏的故事 那麼,這場 AI 芯片戰爭到底誰會贏? 說實話,我認為這個問題本身就問錯了。 這不是一個誰輸誰贏的零和遊戲,而是市場多元化的開始。 短期來看,也就是未來一到兩年,NVIDIA 的地位依然穩固。92% 的市佔率、15 年積累的 CUDA 生態系統、5000 億美元的訂單能見度,這些都不是一朝一夕能撼動的。 但中長期來看,三到五年的時間跨度,變化正在發生。Google TPU 正在擴張客戶基礎,AMD 的 ROCm 已經整合到 PyTorch 和 JAX 的官方支援,大客戶們開始認真考慮多元化的算力來源。 對投資者來說,這意味著不能再把 NVIDIA 當成「AI 唯一受益股」來看。Google、AMD、甚至台積電,都會在這個趨勢中受益。 對開發者和企業來說,這意味著未來會有更多選擇。成本競爭會加劇,74% 的毛利率不可能永遠維持。那些現在被「NVIDIA 稅」壓得喘不過氣的公司,未來可能會看到曙光。 對於整個 AI 產業來說,這其實是一件好事。競爭會帶來創新,創新會帶來進步。 --- 回到文章開頭的那個問題:當 Google 說「我們一顆 NVIDIA 的 GPU 都沒用」的時候,NVIDIA 是不是要完蛋了? 答案是:沒有。 但 Google 確實在芯片戰場上撕開了一道口子。這道口子現在看起來不大,但它代表著一種可能性——一種不必依賴單一供應商的可能性。 Jensen Huang 說得對,AI 的大潮才剛剛開始。但這片海洋夠大,容得下不止一艘船。 --- ## 參考資料 1. [TechCrunch - Google launches Gemini 3 with new coding app and record benchmark scores](https://techcrunch.com/2025/11/18/google-launches-gemini-3-with-new-coding-app-and-record-benchmark-scores/) 2. [CNBC - Anthropic Google cloud deal TPU](https://www.cnbc.com/2025/10/23/anthropic-google-cloud-deal-tpu.html) 3. [Reuters - Meta in talks to spend billions on Google's chips](https://www.reuters.com/business/meta-talks-spend-billions-googles-chips-information-reports-2025-11-25/) 4. [NVIDIA Q3 2025 Earnings Report](https://www.businessinsider.com/nvidia-q3-earnings-live-updates-nvda-stock-price-ai-chips-2025-11) 5. [Google Cloud Blog - Trillium sixth-generation TPU](https://cloud.google.com/blog/products/compute/trillium-sixth-generation-tpu-is-in-preview) 6. [Forbes - Google Vs. Nvidia: Inside The AI Hardware Showdown](https://www.forbes.com/sites/greatspeculations/2025/11/19/google-vs-nvidia-inside-the-ai-hardware-showdown/) 7. [IoT Analytics - Leading generative AI companies](https://iot-analytics.com/leading-generative-ai-companies/) 8. [Google Cloud Documentation - TPU architecture](https://docs.cloud.google.com/tpu/docs/system-architecture-tpu-vm) 9. [CNN - AI bubble fears and Nvidia earnings](https://edition.cnn.com/2025/11/22/tech/ai-bubble-fears-nvidia-earnings) 10. [The New York Times - Did Nvidia Do Enough to Chill AI Bubble Fears?](https://www.nytimes.com/2025/11/20/business/dealbook/nvidia-ai-boom.html) --- *本文基於 2025 年 11 月的公開資料撰寫。AI 芯片市場變化快速,建議讀者關注最新發展。*
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up