# Crusoe CEO:AI資料中心的六十億美元賭局與電力瓶頸
> 原始影片:[Class #3 | MS&E435: Economics of the AI Supercycle Stanford University Spring '26 Apoorv Agrawal](https://www.youtube.com/watch?v=4zk-hJ50vmU) | MS&E 435: Economics of AI | 2026-04-22
## 導言
2024 年五大超大規模雲端業者(hyperscaler)在 AI 相關資料中心的總支出已突破 6,500 億美元,規模僅次於美國國防預算,超過歷史上的登月計畫與曼哈頓計畫。這筆錢到底流到哪裡、在哪些環節堆疊成本、最終誰能賺到,是所有投資人都該弄清楚的問題。
Chase Lochmiller 是 Crusoe 的執行長,Crusoe 是一家垂直整合的 AI 基礎設施公司,從能源開發、資料中心建造,到 GPU 叢集部署全部自己做。他在 Stanford MS&E 435 的這堂課,把每 MW 的成本拆到單項,也指出了目前瓶頸其實不是晶片,是有電力的資料中心土地。
他給出的一句話,或許是整場最值得記住的:「歷史上,勞動力只能靠出生率改變,改變需等二十年。現在我們第一次能夠透過投資資料中心和 GPU,數位化地改變 delta L,加速 GDP 成長。」這句話把 6,500 億美元這個數字放進了正確的尺度——它是在擴張全球的數位勞動力。
---
## 資料中心:AI 繁榮的實體載體
Lochmiller 回答「什麼是資料中心經濟學」時,先從基本公式講起。AI 的產出需要五項:資料、演算法(反向傳播、Transformer 架構等)、算力(GPU 的平行計算和張量運算)、能源,以及容納硬體的實體建築。資料中心就是把這五項整合在一起的物理載體。
> 「人們說他們今天使用 Gemini 或 Claude 時,這些服務的背後,都是由資料中心這個實體基礎設施在支撐。」
他強調資料中心的複雜性被嚴重低估。表面上它只是一棟「有電力供應和冷卻系統、可以插上電腦的建築物」,但當規模擴展到數百 MW 甚至 GW 等級時,它同時涉及化工、機械、電機和電腦工程。
---
## Cobb-Douglas 生產函數與數位勞動力
Lochmiller 援引經濟學中的 Cobb-Douglas 生產函數模型解釋為何這些投資如此龐大。GDP 成長的驅動因素有三項:勞動力(L)、資本(K)、技術進步(T)。
傳統上勞動力只能靠出生率改變,而這有二十年的前置時間——必須養育、教育、培訓一個人才能投入勞動市場。AI 改變了這件事:
> 「當你賦予一個 agent 任務,比如『幫我為新產品建立 CRM 系統』,這實際上就是數位勞動力的體現。歷史上,勞動力是一個你只能透過出生率來改變的東西。現在,我們第一次能夠透過投資資料中心和 GPU,數位化地改變這個 delta L,進而加速 GDP 的成長。」
換句話說,這些幾千億美元的投資本質上是在擴張全球的數位勞動力供給。
---
## 瓶頸的遷移:從晶片到電力殼層(Powered Shell)
過去四年,AI 產業的瓶頸經歷了多次遷移:最初是 GPU 晶片短缺,接著是記憶體和 HBM,接著是網路互連技術。現在 Lochmiller 指出:
> 「今天最大的瓶頸,是有電力的資料中心殼層——那些可以插上晶片、啟動大型 GPU 叢集的地方。晶片供應已經相對寬鬆,真正的挑戰是找到可以安裝這些晶片並供電的位置。」
這也是 Crusoe 選擇垂直整合策略的核心原因:瓶頸會持續在不同環節移動,垂直整合讓公司可以隨著瓶頸位置自己調整,不必依賴外部供應商。
---
## 能源優先策略:為何選擇 Abilene
Lochmiller 透露,Crusoe 的命名靈感來自《魯賓遜漂流記》中的「星期五」。他的核心洞察是:在西方世界,能源是最稀缺的資源之一。因此他選擇避開傳統資料中心市場(如 Northern Virginia),追尋能源豐富但非傳統資料中心市場的地點。
Abilene, Texas 就是最佳範例。West Texas 同時具備極佳的風力和日照條件,吸引了大量再生能源開發商在 PTC(Production Tax Credit,生產稅收抵免)激勵下大規模建設風力和太陽能電廠。但這些綠電面臨輸電瓶頸——沒有足夠的電網把電力輸送出去,導致電價經常出現負值。
> 「我們說:太好了,我們有個用電大戶需要你。於是我們與 Abilene 市府合作,在當地建立大型 AI 資料中心園區。」
Crusoe 在當地建了全美最大的民營變電站——1GW 變電站,容量相當於為整個 Denver 供電。整個園區最終規模將達 2.1GW,客戶是 Oracle、OpenAI 和 Microsoft。園區還配套建設了一座約 350MW 的天然氣發電廠,以及一個能容納 5,000 輛車的停車場——高峰期每天有 9,000 人在工地現場工作,而 Abilene 的常住人口只有 12 萬人。
---
## 水資源迷思:AI 真的會耗盡水嗎?
Lochmiller 也澄清了一個常見誤解:AI 資料中心並不像外界擔心的那樣大量耗水。整座建築的冷卻系統是一個封閉迴路,初始需要約 100 萬加侖的水填充,但之後水只在系統內循環,每年的補水量和一般單戶家庭差不多。這在 Abilene 這種水資源稀缺的地區很關鍵。
---
## 每 MW 的成本結構
Lochmiller 詳細拆解每 MW(百萬瓦)資料中心建造的成本,這是整場最值得抄下來的段落。
**電力基礎設施**
- 配電中心(PDC):將 34.5KV 高壓逐步降壓至 480V/415V 供晶片使用
- UPS 不斷電系統:平滑化電力分配
- 備用柴油發電機:為核心網路和存儲系統提供災難備援
- 天然氣發電廠:約 200 到 300 萬美元/MW(近年因需求激增,價格從 100 萬漲到 300 萬美元/MW)
**冷卻系統**
空氣冷卻機組(chiller)構成建築的核心冷卻基礎設施,內部有大量銅管纏繞形成冷凝盤管。冷水迴路從冷端進入,流經 GPU 機架時吸收熱量(熱交換),熱水再回到 chiller 散熱後恢復低溫。整個建築的給排水系統非常複雜,現在要僱用大量水管工和管件工。
**軟成本(Soft Costs)**
保險、融資費用(建設貸款的利息還款)、場地勘測和調試費用。
**天然氣發電廠**
全球主要燃氣渦輪製造商(GE Vernova、Siemens、Mitsubishi Heavy Industries、Pratt & Whitney、Caterpillar 旗下 Solar Turbines)過去擴產有限,導致供不應求。這也是 GE Vernova 股價近年表現極佳的原因之一。
**承租裝修(Tenant Fit-out)**
包括遠端電源面板、熱通道封閉系統、風牆、CDU(冷卻分配單元)等,所有設備都在實際部署 GPU 的資料大廳中。
**勞動力**
這是單項成本最大的一項之一,達 470 萬美元/MW。對一個 GW 規模的園區來說,光是建築工人的人力成本每年就高達 47 億美元。
> 「這是一個瓶頸——我們沒有足夠的電工、焊接工、水管工、建築工人。這個項目只是眾多在建項目之一,供需失衡嚴重。」
整體加總,光是發電廠加資料中心的建造成本就約 2,000 萬美元/MW(20 億美元/GW)。
---
## GPU 與 IT 基礎設施:誰在賺錢
IT 資本支出的數字更清楚:每 MW 約 4,000 萬美元,其中約 3,000 萬流向 GPU——Nvidia 的 Jensen Huang 最賺。
**網路**:約 400 萬美元/MW,用於 InfiniBand 或 RoCE(RDMA over Converged Ethernet)互連,把多個機架組成一個 coherent cluster。
**CPU 和存儲**:意外的是近期出現 CPU 短缺——因為 agentic workflow 和雲端運算爆發,需要大量 CPU 來 orchestrate 這些工作負載。每 MW 約 300 萬美元。
**室內裝修和部署**:約 300 萬美元。
總計 IT capex 約 4,000 萬美元/MW,加上電力基礎設施的 2,000 萬,總前期投資約 6,000 萬美元/MW。
---
## 算力是商品嗎?
被問到算力是否會商品化時,Lochmiller 的回答比較有層次:
> 「我認為這取決於時間範圍,也取決於應用場景。較舊的算力確實會趨向商品化。但有一個東西絕對不是商品——規模。當你在真正龐大的規模下運作時,極難被複製。」
他認為長期來看,隨著競爭加劇,Nvidia 目前約 80% 的毛利最終會降到更正常的 60% 水準。但短期內,尖端算力仍會享有溢價。
---
## 從 H100 價格走勢看設備折舊週期
Lochmiller 展示了一張顛覆直覺的 Bloomberg 圖表:H100 晶片在 2022 年底首次亮相時的價格,經過初期下調後,在 AI agent 應用爆發後反而回升,甚至超越了首發價格。這直接打臉了「下一代晶片出來舊晶片就沒用」的論點。
> 「我們在 Crusoe Cloud 業務中親眼見證了這一點。這些設備的折舊週期可能比華爾街普遍假設的五到六年要長。」
Crusoe 的策略是構建抽象化計算層的服務——使用者不需要知道自己在用的是 A100、H100 還是 MI300,就像我們使用 Zoom 或 Google Meet 時不會在乎底層是 Intel 還是 AMD 處理器。只要服務品質穩定,設備就會持續被使用。
---
## 經濟學的核心:現金流與折舊
基於前面的數據,假設每 MW 建造成本 6,000 萬美元,營收面:
- **純算力租賃(裸機)**:每 MW 每年約 1,500 萬美元收入
- **模型託管服務**:再增加 500 萬至 1,500 萬美元,視情況可達 3,000 萬美元/MW/年
> 「粗略計算,這是一個大約四年的回收期(不含 opex)。如果加上託管服務,在非常樂觀的情境下可以縮短到兩年。」
但關鍵問題是折舊怎麼算。一座資料中心可以用多久?一顆 GPU 可以用多久?一組天然氣發電設備可以用多久?這是華爾街分析師最關注的核心問題。
---
## Crusoe Spark:模組化的低成本路徑
Lochmiller 展示了 Crusoe 的自研產品線「Crusoe Spark」——一種模組化、自包含的 AI 資料中心,在中心化工廠預製後再到現場部署。空氣冷卻版本每單元 500KW,液冷版本 2MW。可以組成艦隊(fleet)部署:
> 「相較於傳統方式,可以節省 30% 到 50% 的成本,具體取決於整體成本結構。」
模組化設計的另一個戰略意義,是它可以在電網覆蓋不足的地區快速部署,開啟大量新的電力機會。
---
## 電氣設備棧:被低估的創新機會
被問到「如果只能選一檔股票,你會做多或做空什麼」時,Lochmiller 選了一個出人意料的角度:
> 「我認為資料中心將在整個電氣設備棧上推動大量創新。這些公司將把電力從 765KV 高壓一步步降至機架內的 48V 直流或 900V DC。所有這些轉換過程需要大量的電纜、變壓器、配電設備。」
他點名 Eaton、Schneider 等公司,認為這些在近期內會因為資料中心需求而表現優異,但長期而言,如果他們不創新,整個電氣設備棧的成本將大幅下降,因為新創公司正在構建下一代電氣基礎設施。
> 「對在座的電力電子工程師來說,這是一個巨大的機會——如何將 765KV 高壓高效地轉換到機架內的直流電?這是個非常值得投入的問題。」
---
## 太空資料中心:幻想還是真實?
Lochmiller 對 Elon Musk 的太空資料中心計畫持謹慎樂觀:
> 「太空資料中心的優點在於:你不需要混凝土地基、不需要許可審批、不需要建設百萬光纖。全部用光學互連。但缺點是:熱管理極難、持續運維極難——你不能派太空人去更換故障的 GPU 並寄回給 Jensen。」
他的判斷是未來 5 到 10 年內不會有實質影響,但長期而言,太空資料中心可能成為智慧基礎設施的一部分——前提是 Starship 的載荷成本能下降一到兩個數量級。
---
## 給學生的建議:專注「如何學習」而非「學什麼」
作為 Stanford 校友,Lochmiller 最後給學生的建議是:
> 「學校具體學什麼其實沒那麼重要,重要的是學習這個過程。在 Crusoe,我們有個核心價值觀叫『活在無限成長循環中』——意思是每個人都不是成品,而是持續打磨中的作品。如果你能不斷進步、不斷學習,隨著時間推移,你會獲得指數級的複利效應。這才是每個人最寶貴的資產。」
他強調,在 AI 工具日益普及、「每個人身邊都有一百萬個員工可供調遣」的未來,與其焦慮學什麼專業,不如專注於如何學習、如何運用這些工具來提升自己。
---
## 結語
這堂課最值得拿去用的不是 Crusoe 的故事,是那張每 MW 6,000 萬美元的成本分解表。2,000 萬電力基礎設施 + 4,000 萬 IT capex(其中 3,000 萬給 GPU)。營收端每 MW 約 1,500 萬美元/年的裸機租賃,加上託管服務後樂觀可達 3,000 萬。四年回收,樂觀兩年。這些數字讓整個 AI 資料中心賽道的經濟學一下子具體化了。
對我來說最反直覺的一段是 H100 價格回升。過去我一直把 GPU 當成消費電子那種迅速折舊的東西,但如果 agent workflow 持續擴張,舊 GPU 不會被淘汰而會被 Crusoe 這類公司抽象成雲端算力繼續賣——那華爾街那套五到六年線性折舊的假設就明顯太保守。這件事對判斷 hyperscaler 的 ROIC 很重要。
最被低估的投資機會,Lochmiller 選的不是 Nvidia,而是電氣設備棧——765KV 降到機架內 48V DC 這條長長的轉換鏈,以及做這些轉換設備的 Eaton、Schneider 等公司。但他同時提醒:如果這些傳統廠商不創新,新創公司會把他們的利潤吃掉。意思很清楚——買 incumbents 可能吃到週期順風,但這不是結構性的好生意。結構性好生意是做出下一代電氣基礎設施的人。
---
*本文由 AI 根據 YouTube 影片內容生成,僅供參考。*