AI逐字稿_小黃演說_Jensen Huang Keynote at Computex 2025
主持人1:
女士們、先生們,歡迎NVIDIA(Nvidia)創辦人暨執行長黃仁勳(Jensen Huang)先生!
主持人2:
歡迎NVIDIA創辦人暨執行長黃仁勳(Jensen Huang)登台!
黃仁勳:
很高興能來到這裡!我的父母今天也在現場觀眾席中,我的母親尤其喜歡這樣的時刻。他們就在那邊的座位上!
NVIDIA(英偉達)來到台灣已有三十多年的歷史。台灣是我們許多珍貴的合作夥伴(partners)以及親愛朋友的家。這些年來,你們見證了NVIDIA的成長,看到了我們完成了許多令人振奮的成就,並一路與我們攜手合作。今天,我將與大家分享我們在產業中的現況、未來的方向,並宣布一系列令人興奮的新產品(products)!這些產品不僅令人驚喜,還將為我們開拓新的市場(markets),創造新的成長機會(growth)。
我們也將談到我們出色的合作夥伴,以及我們如何共同打造這個生態系統(ecosystem)。正如大家所知,我們正處於電腦產業生態系統的中心,這是全球最重要的產業之一。因此,當新的市場需要被開創時,理所當然地,我們必須從這個電腦生態系統的核心開始。我為大家準備了一些驚喜——有些是你們可能完全想不到的!當然,我也承諾會談到人工智慧(AI),並且我們還會探討機器人技術(robotics)。
NVIDIA的故事,是關於電腦產業的重新塑造(reinvention)。事實上,這也是NVIDIA自身不斷重塑的故事。我來台灣已經三十年了,你們當中有許多人聽過我多次的主題演講(keynotes),有些人甚至每一場都沒錯過!當我們回顧過去三十年來的對話,回想我們所談論的內容,你會發現一切已經發生了多么巨大的改變!
我們最初是一家晶片公司(chip company),目標是打造一個全新的計算平台(computing platform)。在2006年,我們推出了CUDA(庫達),這項技術徹底改變了計算的方式。到了2016年,也就是十年後,我們意識到一種全新的計算方式已經到來。這種新的計算方式需要重新發明技術堆疊(technology stack)的每一層:處理器(processor)是全新的,軟體堆疊(software stack)是全新的,系統(system)當然也是全新的。
因此,我們創造了一個全新的系統。這個系統在2006年的GTC(GPU技術大會)上由我親自宣布時,沒有人理解我在說什麼,也沒有人對它表示認同。這個系統被命名為DGX-1(DGX一號)。我將第一台DGX-1捐贈給了一家名為OpenAI的非營利組織(non-profit company),這也開啟了人工智慧革命(AI revolution)。
多年後,我們進一步認識到,這種新的軟體開發方式,也就是現在所說的人工智慧(artificial intelligence),與傳統的軟體運行方式完全不同。過去,許多應用程式(applications)僅在少數處理器上運行,位於我們稱為超大規模(hyperscale)的大型資料中心(data center)中。然而,這種新型應用需要大量處理器協同工作,為數百萬人的查詢提供服務(serving queries)。這樣的資料中心在架構上必須徹底不同。
我們發現,資料中心需要兩種網路(networks)。一種是南北向(north-south),因為你仍然需要控制儲存(storage)、管理控制平面(control plane),並與外部世界連接。但更重要的網路是東西向(east-west),也就是電腦之間互相通訊,共同解決問題。我們意識到,在東西向流量(east-west traffic)中表現最佳的網路公司,特別是在高效能運算(high-performance computing)和大規模分散式處理(large-scale distributed processing)領域,是一家對我們非常重要、與我們關係密切的公司——Mellanox(美絡諾斯)。於是,我們在2019年,也就是五年前,收購了這家公司。
我們將整個資料中心轉化為一個計算單元(computing unit)。正如我之前所說,現代電腦不再只是一台個人電腦(PC)或一台伺服器(server),而是整個資料中心(data center)。如今,整個資料中心作為一個整體,運行單一的工作任務(job)。這也意味著操作系統(operating system)必須改變。
在過去三年中,NVIDIA在資料中心領域的探索已為人熟知。你們見證了我們正在塑造的一些理念,以及我們如何開始以全新的視角看待我們的企業。歷史上,幾乎沒有任何公司——特別是科技公司(technology company)——會一次公開未來五年的產品路線圖(roadmap)。通常,公司會將未來的計劃視為最高機密(extremely confidential),絕不對外透露。然而,我們意識到,NVIDIA已經不再僅僅是一家科技公司。事實上,我們現在是一家不可或缺的基礎設施公司(infrastructure company)。
你們如何規劃基礎設施(infrastructure)?包括土地(land)、建築外殼(shell)、電力(power)、電網(electricity),以及在全球各地所需的各種融資(financing)?如果你不了解我們將要打造的東西,這一切要如何實現?因此,我們詳細公開了公司的產品路線圖(roadmap),提供了足夠的細節,讓全世界的企業都能開始著手建造資料中心(data centers)。我們現在意識到,NVIDIA是一家人工智慧基礎設施公司(AI infrastructure company),也是一家對全球各地、每個地區、每個產業、每家公司都至關重要的基礎設施公司(infrastructure company)。每個公司都將需要建設這樣的基礎設施。
那麼,這些基礎設施究竟是什麼?其實,這些基礎設施與第一次工業革命(Industrial Revolution)時的情景並無二致。當時,像通用電氣(GE)、西屋電氣(Westinghouse)、西門子(Siemens)這樣的公司意識到,一種名為電力(electricity)的新技術出現了。為了支持這種技術,必須在全球各地建立全新的基礎設施。這些基礎設施最終成為社會基礎設施(social infrastructure)不可或缺的一部分。如今,我們稱這種基礎設施為電力(electricity)。
多年後,到了我們這一代,我們認識到另一種新型基礎設施的出現。這種基礎設施非常抽象,難以理解,它被稱為資訊(information)。這種資訊基礎設施(information infrastructure)在最初被提出時,幾乎沒有人能理解它的意義。但現在我們知道,這就是網際網路(Internet)。如今,網際網路無處不在,一切都與之相連。
現在,一種全新的基礎設施正在誕生。這種基礎設施建立在前兩者——電力和網際網路——的基礎之上,它是智能基礎設施(infrastructure of intelligence)。我知道,當我們今天談到智能基礎設施時,很多人可能覺得這聽起來毫無意義。但我向你們保證,十年後當你回頭看,你會發現人工智慧(AI)已經融入我們生活的方方面面。事實上,我們將在每個地方都需要人工智慧。每個地區、每個產業、每個國家、每家公司,都需要人工智慧。人工智慧已經成為基礎設施的一部分,就像網際網路、就像電力一樣。
這樣的基礎設施需要工廠(factories)。這些工廠正是我們今天所打造的。它們不是過去的資料中心(data centers)。過去的資料中心是一個價值一萬億美元的產業,主要提供資訊(information)和儲存(storage),支持我們的企業資源規劃系統(ERP systems)和員工運作。那是傳統的資料中心。然而,現在的資料中心雖然源自同一個產業,卻正在蛻變為完全不同的東西,與傳統的資料中心徹底分離。我們姑且稱它們為人工智慧資料中心(AI data centers),但這個名稱並不完全準確。事實上,它們是人工智慧工廠(AI factories)。你為這些工廠輸入能源(energy),它們就能產出極具價值的東西——我們稱之為代幣(tokens)。甚至現在,有些公司已經開始在財報中討論他們上個季度生產了多少代幣!
公司已經開始談論他們上個月生產了多少代幣(tokens)。很快地,我們將會討論每小時能生產多少代幣,就像每一座工廠(factory)一樣。這代表世界已經發生了根本性的改變。
回想1993年我們創辦公司時,我試圖評估我們的商機(business opportunity)有多大。當時我得出結論:晶片產業(chip industry)的市場規模高達3億美元,這是一個巨大的機會!我們認為自己會因此致富。然而,從當初的3億美元晶片產業,到如今價值約1萬億美元的資料中心商機(data center opportunity),我們再往前看,人工智慧工廠(AI factories)和人工智慧基礎設施產業(AI infrastructure industry)將以數萬億美元的規模來衡量。這就是我們正在開創的激動人心的未來!
現在,我們所做的一切都建立在幾項核心技術(technologies)之上。我經常提到加速運算(accelerated computing)和人工智慧(AI)。但真正讓NVIDIA與眾不同的,是這些能力的融合。特別是我們的演算法(algorithms)和程式庫(libraries),也就是我們稱為CUDA-X程式庫(CUDA-X libraries)的那部分。我們無時無刻不在談論程式庫。事實上,我們是全球唯一一家如此執著於討論程式庫的科技公司(technology company)。這是因為程式庫是我們一切工作的核心,是我們事業的起點。今天,我將向大家展示幾個全新的程式庫。
但在展示之前,讓我先給大家一個預覽,介紹我今天將要分享的內容。你們即將看到的一切,都是模擬(simulation)、科學(science)與人工智慧(artificial intelligence)的結合。你們看到的不是藝術,而是模擬的成果,只是這些模擬恰好非常美麗。讓我們一起來看看吧!
(影片片段)
我面前的是一個即時生成的電腦圖形(computer graphics),這不是預錄的影片(video)。這些圖形是由GeForce生成的。這是全新的GeForce RTX 5060。我要特別感謝坐在前排的好友,以及來自微星(MSI)的合作夥伴。我們將這款令人驚嘆的GPU(圖形處理器)縮小並整合到這裡。
這有沒有讓你感到不可思議?這真的是太驚人了!我們展示的是一款搭載GeForce RTX 5060的全新筆記型電腦(laptop)。GeForce將更強大的運算能力帶到全世界。此刻,你們看到的每一個像素(pixel)都是經過光線追蹤(ray-traced)處理的。怎麼可能在這樣的解析度下模擬光子(photon)並達到如此高的幀率(frame rate)?答案是人工智慧(artificial intelligence)。
我們僅渲染(rendering)了十分之一的像素。你們看到的每一個像素中,只有十分之一是實際計算出來的,其餘九個是由人工智慧推測(guessed)完成的。這完全無懈可擊!人工智慧的推測非常完美。這項技術名為DLSS神經渲染(DLSS neural rendering),我們花了多年時間研發。從我們開始投入人工智慧研究的那一刻起,這就是一場長達十年的旅程。人工智慧徹底改變了電腦圖形(computer graphics)的進展。GeForce將人工智慧帶到全世界,而現在,人工智慧反過來又革新了GeForce。這真的非常、非常了不起!
女士們、先生們,談到GeForce,作為一名執行長(CEO),我覺得自己就像有許多孩子一樣。GeForce帶領我們走到今天。然而,你們可能會發現,我們的主題演講(keynotes)如今有90%的內容不再只聚焦於GeForce。但這並不是因為我們不愛GeForce!事實上,GeForce RTX 50系列(G力RTX 50系列)剛剛迎來了有史以來最成功的發布,也是我們歷史上最快的產品推出。PC遊戲(PC gaming)產業至今已有30年的歷史,這足以證明GeForce的非凡之處。
接下來,讓我們談談程式庫(libraries)。一切的核心當然始於CUDA。我們致力於讓CUDA的性能(performance)達到極致,並使其普及到全世界(pervasive),讓全球的安裝基礎(install base)無處不在。這樣,應用程式(applications)就能輕鬆找到CUDA GPU(庫達圖形處理器)。安裝基礎越大,開發者(developers)就越有動力去創造更多的程式庫;程式庫越多,就能實現更多令人驚嘆的事情,開發出更好的應用程式,為用戶(users)帶來更多價值。他們會購買更多電腦(computers),電腦越多,CUDA的應用就越廣泛。這種正向循環(feedback path)至關重要。
然而,加速運算(accelerated computing)並非通用運算(general-purpose computing)。通用運算的模式是這樣的:每個人都用Python、C或C++等語言編寫軟體(software),然後編譯(compile)並在CPU(中央處理器)上運行。這種方法在通用運算中是一致的:編寫應用程式,編譯應用程式,在CPU上執行。但在加速運算中,這種方式根本行不通。如果這種方式有效,那我們用的還是CPU!為什麼要改變CPU?如果只是簡單地編寫軟體、編譯軟體並在CPU上運行,加速運算的意義何在?事實上,必須採取不同的方法,這是非常合理的。
原因是,通用運算背後有數萬億美元的創新(innovation)和無數人的努力。突然間,一塊晶片(chip)裡的幾個小元件就能讓電腦快50倍、100倍,這聽起來毫無道理。因此,我們採取的邏輯是:如果我們更深入了解應用程式,就能加速它們的運行。如果我們打造一個更適合加速的架構(architecture),讓程式以接近光速(speed of light)的速度運行,即使這部分的程式碼僅佔5%,也能大幅提升99%的運行時間(run time)。這一點非常令人震驚:大多數應用程式中,極小部分的程式碼(code)卻消耗了絕大部分的運行時間。我們觀察到這一點,於是開始逐一針對不同領域進行優化。
我剛剛展示的是電腦圖形(computer graphics)。此外,我們還有數值運算(numerics)。cuNumeric(庫數值)是CUDA中最廣泛應用的數值程式庫(numerical library)。現在,Ariel(愛麗兒)是全球首個用於5G和6G的GPU加速無線電訊號處理(radio signal processing)技術。一旦我們將其定義為軟體(software-defined),就能在其上應用人工智慧。因此,我們將人工智慧引入5G和6G。
還有更多例子:ParaBreaks用於基因組學(genomics),Alice Moan I用於醫療影像(medical imaging),Earth-2用於天氣預測(weather prediction),cuQuantum用於量子經典電腦架構(quantum-classical computer architectures)。還有cuTensor(庫張量)用於張量數學的協方差(covariance)和張量收縮(tensor contraction)。Megatron(威震天)則涵蓋了我們所有的深度學習(deep learning)程式庫,支援訓練(training)和推論(inference)。這些程式庫徹底改變了運算,而這一切都始於CUDA和其上的cuDNN(庫深度神經網路)。cuDNN之上還有Megatron、TensorRT-LLM(張量運行時-語言模型)等。最近,我們推出了專為大型人工智慧工廠(AI factories)設計的全新操作系統(operating system)——Dynamo(迪納摩)。
此外,cuDF(庫數據框架)支援像Spark和SQL這樣的結構化數據(structured data)加速。cuML(庫機器學習)是一個經典機器學習(classical machine learning)的Python框架,用於描述核心運算(kernels),取得了巨大成功。cuOpt(庫優化)專注於數學優化(mathematical optimizations),例如旅行推銷員問題(traveling salesperson problem)或供應鏈優化(supply chain optimization)等高度受限、多變量的問題,表現非常出色。我對cuOpt的成果感到非常興奮!
還有cuDSS(庫直接稀疏求解器)和cuSparse(庫稀疏),用於稀疏結構模擬器(sparse structure simulators),應用於CAE(電腦輔助工程)、CAD(電腦輔助設計)、流體力學(fluid dynamics)和有限元素分析(finite element analysis),對電子設計自動化(EDA)和電腦整合製造(CIM)產業至關重要。
最後是cuLitho(庫光刻),這是計算光刻(computational lithography)最重要的程式庫之一。製作光罩(mask making)通常需要一個月,這是一個極其耗費計算資源的過程。現在,有了cuLitho,我們能將計算速度提升50倍到70倍。這為未來將人工智慧應用於光刻技術奠定了基礎。我們在這方面有出色的合作夥伴:台積電(TSMC)廣泛使用cuLitho,ASML和Synopsys(新思科技)也是我們的優秀合作夥伴。
這些程式庫讓我們能夠逐一加速各個應用領域(domains)、科學領域(science)和物理領域(physics)。它們不僅提升了應用程式的性能,也為我們開拓了新的市場(markets)。我們針對特定地區和市場,認為這些領域對於轉型到新的運算方式至關重要。如果通用運算在這麼多年後已經走到盡頭,為什麼它還沒有在每個產業中被取代?
當然,最重要的產業之一是電信(telecommunications)。正如全球的雲端資料中心(cloud data centers)現已成為軟體定義(software-defined),電信產業也理應走向軟體定義。這就是為什麼我們花了六年時間來完善和優化一個完全加速的無線接入網路(radio access network, RAN)堆疊(stack),實現了每兆瓦或每瓦特數據速率(data rate per megawatt or per watt)的卓越性能。我們現在的技術已與最先進的6G(六)技術不相上下。
一旦我們達到了這樣的性能和功能水準,就可以進一步在其上應用人工智慧(artificial intelligence, AI)。我們在這方面有出色的合作夥伴。像是軟銀(SoftBank)、T-Mobile、微軟(Windows)和沃達豐(Vodafone)正在進行試驗。諾基亞(Nokia)、三星(Samsung)和基爾薩拉(Kil-Sara)與我們合作開發完整的堆疊。富士通(Fujitsu)和思科(Cisco)則致力於系統(systems)的開發。現在,我們有能力提出在5G或6G上應用人工智慧的構想,並結合運算技術。
我們也在量子運算(quantum computing)領域有所突破。量子運算目前仍處於噪音中間狀態(noisy intermediate state),也就是中等規模量子運算(intermediate-scale quantum computing)。然而,已經有許多應用場景可以開始實現。我們對此感到非常興奮。我們正在開發一個量子經典(quantum-classical)或量子GPU運算平台(quantum GPU computing platform),我們稱之為Q2Q(排隊到排隊),並與全球多家優秀公司合作。GPU(圖形處理器)可用於前處理(preprocessing)、後處理(post-processing)、錯誤校正(error correction)和控制(control)。
我預測,未來所有的超級電腦(supercomputers)都將具備量子加速功能,並連接到量子處理單元(quantum processing units, QPU)。一 台超級電腦將由QPU、GPU和一些CPU(中央處理器)組成,這將是現代電腦(modern computer)的代表。我們在這一領域與許多優秀的公司合作。
談到人工智慧,12年前我們從感知(perception)開始,開發能夠理解模式(patterns)、識別語音(speech recognition)和辨識圖像(image recognition)的人工智慧模型(AI models)。那是我們的起點。在過去五年中,我們開始探討生成式人工智慧(generative AI),這種人工智慧不僅能理解,還能生成內容。它可以實現從文字到文字(text-to-text)的生成,例如我們在ChatGPT中常用的功能,也可以實現文字到圖像(text-to-image)、文字到影片(text-to-video)、影片到文字(video-to-text)、圖像到文字(image-to-text),幾乎是任何形式到任何形式的轉換。這是人工智慧最令人驚嘆之處——我們發現了一個通用的函數逼近器(universal function approximator),一個通用的轉譯器(universal translator)。只要我們能將資訊進行標記化(tokenize),它就能將任何形式轉換為其他形式。
我們現在已經達到了人工智慧發展的一個重要階段。生成式人工智慧帶來了一次性人工智慧(one-shot AI)。你輸入一段文字,它就能回覆一段文字。兩年前,當我們首次接觸ChatGPT時,這是一個重大的突破。你輸入文字,它回覆文字,預測下一個單詞(next word),甚至下一個段落(next paragraph)。然而,智能(intelligence)遠不只是從大量數據中學習的結果。智能還包括推理(reasoning)能力,能夠解決從未見過的問題,逐步分解問題(break it down step by step),應用規則和定理(rules and theorems)來解決新問題,模擬多種選項(simulate multiple options)並權衡其利弊(weigh its benefits)。
你可能聽說過一些相關技術,例如思考鏈(chain of thought)、逐步分解(breaking down step by step)、思考樹(tree of thought),以及探索多條路徑(coming up with multiple paths)。這些技術正在引領人工智慧的推理能力。如今,一旦人工智慧具備了推理能力和多模態感知能力(multi-modal perception),例如能夠處理PDF檔案(PDF),它就能執行搜尋(search)、使用工具(use tools)。這就形成了一個代理人工智慧(agentic AI)。這種代理人工智慧就像我們所有人一樣:給定一個目標(goal),逐步分解(break it down step by step),並推理下一步該做什麼(reason about what to do)。
我們如何以最佳方式實現目標?我們會考慮其後果(consequences),然後開始執行計劃(execute the plan)。這個計劃可能包括進行研究(research)、使用工具(tools)完成某些工作,甚至與另一個人工智慧代理(AI agent)合作。代理人工智慧(agentic AI)的核心在於理解(understand)、思考(think)和行動(act)。這正是機器人(robotics)的運作循環,代理人工智慧本質上是一個數位形式的機器人(digital robot)。這在未來幾年將變得極為重要,我們在這個領域已經取得了巨大的進展。
下一波浪潮是物理人工智慧(physical AI),也就是能夠理解物理世界(understand the world)的人工智慧。它們能理解慣性(inertia)、摩擦力(friction)、因果關係(cause and effect)。例如,如果我滾動一個球(roll a ball),它滾到車底(under a car),根據球的速度(speed),它很可能滾到車的另一邊,而不是憑空消失(disappear)。這就是物體永存性(object permanence)。又比如,如果你面前有一張桌子(table),你需要到另一邊去,最佳方法顯然不是直接穿過去(go right through it),而是繞過去(go around it)或從下方通過(go underneath it)。能夠對這些物理現象進行推理(reason about physical things)是人工智慧下一個時代的關鍵。我們稱之為物理人工智慧(physical AI)。
在這個例子中,你們看到我們僅僅通過提示(prompt)人工智慧,它就能生成用於訓練自動駕駛汽車(self-driving car)的影片(videos),模擬不同的場景(scenarios)。稍後我會展示更多相關內容。例如,我要求生成一隻狗(dog)的影片,可能與一隻鳥(bird)或人(people)互動。它從左邊的圖像開始,然後結合推理系統(reasoning systems)、生成系統(generative systems)和物理人工智慧,生成最終的結果。在這種能力層次上,我們進入了物理實體化(physical embodiment),也就是我們所說的機器人(robot)。如果你能提示人工智慧生成一段影片,讓它伸手拿起一個瓶子(pick up a bottle),你同樣可以想像讓一個機器人執行相同的動作。當今的人工智慧已經具備這樣的能力。
我們正在打造的下一代電腦(computer),其屬性與以往完全不同。三年前,革命性的Hopper(霍普)電腦問世,徹底改變了人工智慧(AI)領域,成為全球最知名、最受歡迎的電腦之一。在過去幾年中,我們一直在研發一種新電腦,讓我們能夠進行推理(inference)、時間擴展(time scaling),或者說是極速思考(thinking incredibly fast)。當你在思考時,你的頭腦會生成大量的標記(tokens)或想法(thoughts),並在產生最終答案前反覆迭代(iterate)。過去的一次性人工智慧(one-shot AI)將進化為思考人工智慧(thinking AI)、推理人工智慧(reasoning AI)和推理時間擴展人工智慧(inference-time scaling AI)。這需要更多的運算能力(computation)。
因此,我們開發了一個全新的系統——Grace Blackwell(格蕾絲·布萊克威爾)。Grace Blackwell具備多項功能,其中最重要的是擴展能力。向上擴展(scale up)意味著將一台電腦變成一台巨型電腦(giant computer);向外擴展(scale out)則是將多台電腦連接起來,讓工作在多台電腦間分配完成(work done in many different computers)。向外擴展相對容易,但向上擴展極其困難。打造超越半導體物理限制(limits of semiconductor physics)的更大電腦是一項極具挑戰性的任務,而這正是Grace Blackwell的突破。
Grace Blackwell幾乎打破了所有界限。在座的許多合作夥伴正在與我們攜手打造Grace Blackwell系統。我很高興地宣布,我們已經進入全面量產(full production)。雖然這一路極具挑戰,但基於HGX的Blackwell系統自去年底以來已全面量產,並從今年二月起開始供貨。現在,Grace Blackwell系統每天都在全球各地上線(coming online)。幾週前,它已在CoreWeave平台上可用,並已被多家雲端服務提供者(CSPs)採用。你們開始看到各方都在討論Grace Blackwell的量產進展。
正如我所承諾,今年第三季(Q3),我們將升級到Grace Blackwell GB300(格蕾絲·布萊克威爾GB300)。GB300採用相同的架構(architecture)、相同的物理尺寸(physical footprint)、相同的電氣和機械規格(electrical mechanicals),但內部的晶片(chips)已升級。新款Blackwell晶片(Blackwell chip)提供1.5倍的推理性能(inference performance)、1.5倍的HBM記憶體(HBM memory),以及2倍的網路頻寬(networking)。整體系統性能(system performance)因此大幅提升。
讓我們來看看Grace Blackwell的內部結構。Grace Blackwell從這個運算節點(compute node)開始。這是其中一個運算節點。上世代的B200(B200)是這樣的,而新款B300(B300)則是這樣。請注意,中央部分現在採用100%液冷(liquid cooled),但外部設計保持一致。你可以將其插入相同的系統和機箱(chassis)。Grace Blackwell GB300系統的推理性能提升了1.5倍,訓練性能(training performance)與前代相當。
這個系統的運算能力達到40 petaflops(40千萬億次浮點運算),相當於2018年Sierra超級電腦(Sierra supercomputer)的性能。當時的Sierra超級電腦使用了18,000個Volta GPU(沃爾特圖形處理器),而現在單一節點(node)就能取代整台超級電腦,性能提升了4,000倍,僅用了6年時間。這是摩爾定律(Moore’s Law)的極致展現。我曾說過,NVIDIA的人工智慧運算能力每10年提升約100萬倍,我們仍然在這條軌道上。
實現這一目標的方法不僅僅是讓晶片更快。晶片的速度和尺寸有其極限。在Blackwell的案例中,我們甚至將兩個晶片連接在一起(connected two chips together),以突破限制。台積電(TSMC)與我們合作,開發了一種名為CoWoS-L(隊列L)的新製程(process),讓我們得以打造這些巨型晶片(giant chips)。但我們想要的晶片遠比這更大。因此,我們開發了NVLink(羨慕連結),這是全球最快的交換器(switch)。單個NVLink提供每秒7.2 terabytes(7.2兆位元組)的頻寬。九個這樣的交換器組成一個機架(rack),這些交換器通過一個工程奇蹟連接起來。
這個奇蹟就是NVLink脊柱(NVLink spine)。它包含2英里的電纜(2 miles of cables)、5,000根結構化電纜(structured cables),每根電纜都經過阻抗匹配(impedance matched)。這套系統將72個GPU(圖形處理器)與其他72個GPU全部連接起來,透過NVLink網絡(network)提供每秒130 terabytes(130兆位元組)的頻寬。為了讓大家理解這個規模,全球網際網路(Internet)的尖峰流量(peak traffic)是每秒900 terabits(900兆位元),除以8後,僅一個NVLink脊柱的流量就超過了整個網際網路。這九個NVLink交換器(NVLink switches)讓每個GPU都能同時與其他GPU通信。這就是Grace Blackwell的奇蹟!
談到GB200,由於電氣傳輸距離的限制(limit to how far you can drive 30s),這是任何服務器所能達到的最遠距離。從晶片(chip)到交換器(switch),再到脊柱(spine),連接到其他交換器或其他晶片,全程都是電氣傳輸(all electrical)。這種限制促使我們將所有組件集中在單一機架(rack)中。如今,一個機架的功率達到120千瓦(120 kilowatts),這就是為什麼我們必須採用液冷技術(liquid cooled)來確保系統穩定。
我們現在能夠將GPU(圖形處理器)從單一主機板(motherboard)中解構出來,分散到整個機架中。換句話說,整個機架就像一個巨大的主機板。這是完全解構與聚合(disaggregated and aggregated)的工程奇蹟。現在,GPU的性能(performance)令人驚嘆,記憶體容量(memory)無與倫比,網路頻寬(networking bandwidth)也同樣出色。有了這樣的基礎,我們可以進一步向外擴展(scale out),打造大型系統(large systems)。
你們會注意到,NVIDIA(英偉達)建造的幾乎所有東西都非常巨大(gigantic)。這是因為我們不是在建造傳統的資料中心(data centers)或伺服器(servers),而是在建造人工智慧工廠(AI factories)。例如,我們與Oracle雲端(Oracle Cloud)合作,這些機架的功率密度(power density)極高,必須將它們分開放置,以分散功率負載(distribute power density)。但說到底,我們建造的不是資料中心,而是人工智慧工廠。這就是xAI的巨像工廠(xAI Colossus factory),也就是「星際之門」(Stargate)。這座工廠佔地400萬平方英尺(4 million square feet),總功率達到1吉瓦(1 gigawatt)。
試想一下,這座1吉瓦的工廠,總投資可能在600億到800億美元之間,其中電子設備和運算系統(computing systems)就佔據了400億到500億美元。這些是規模龐大的工廠投資(factory investments)。為什麼人們願意建造這樣的工廠?答案很簡單:投資越多,產出越多(the more you buy, the more you make)。這就是工廠的運作原理。
這項技術極其複雜(complicated)。僅僅看著這些設備,你可能無法完全體會我們在台灣的合作夥伴(partners)以及在場所有公司所完成的驚人工作。因此,我們為你們製作了一段影片(movie)。讓我們一起來看看!
主持人3:
Blackwell(布萊克威爾)是一個工程奇蹟(engineering marvel)。它始於台積電(TSMC)的一塊空白矽晶圓(blank silicon wafer)。
數百道晶片加工(chip processing)和紫外線光刻(ultraviolet lithography)工序,在12英寸晶圓(12-inch wafer)上逐層構建出2000億個晶體管(200 billion transistors)。晶圓隨後被切割成單獨的Blackwell晶片(Blackwell die),經過測試和分類(tested and sorted),選出優質晶片(good dies)繼續後續流程。晶片在晶圓上的基板製程(chip-on-wafer-on-substrate process)由台積電的矽品精密(SPIL)和安靠(Amkor)完成。
32個Blackwell晶片(Blackwell dies)和128個HBM堆疊(HBM stacks)被連接到客製化矽中介層(custom silicon interposer wafer)上。金屬互連線(metal interconnect traces)直接嵌入其中,將Blackwell GPU(圖形處理器)和HBM堆疊整合到每個系統和封裝單元(system and package unit)中,牢牢固定所有組件。接著,組件經過烘烤(baked)、模塑(molded)和固化(cured),最終形成Blackwell B200超級晶片(Blackwell B200 super chip)。
在京元電子(KYEC),每塊Blackwell晶片在125℃的烘箱中進行壓力測試(stress tested),連續數小時推至性能極限(pushed to its limits)。回到富士康(Foxconn),機器人全天候工作(around the clock),精準挑選並放置超過10,000個元件(components)到Grace Blackwell的印刷電路板(PCB)上。與此同時,全球各地的工廠也在準備其他組件(components)。來自酷冷至尊(Cooler Master)、AVC、Auras和Delta的客製化液冷銅塊(custom liquid cooling copper blocks)確保晶片維持在最佳溫度(optimal temperatures)。
在富士康的另一座工廠,ConnectX-7超級網卡(ConnectX-7 Super NICs)被製造出來,用於實現向外擴展的通訊(scale-out communications)。BlueField-3 DPU(數據處理單元)則負責卸載和加速網路(networking)、儲存(storage)和安全任務(security tasks)。所有這些組件最終匯聚,精心整合到GB200運算托盤(GB200 compute tray)中。
NVLink(羨慕連結)是NVIDIA發明的突破性高速連結(high-speed link),用於連接多個GPU(圖形處理器),並向上擴展為一個巨大的虛擬GPU(virtual GPU)。NVLink交換器托盤(NVLink switch tray)由NVLink交換晶片(NVLink switch chips)組成,提供每秒14.4 terabytes(14.4兆位元組)的全對全頻寬(all-to-all bandwidth)。NVLink脊柱(NVLink spine)形成一個客製化的背板(custom blind-mate backplane),整合5,000根銅纜(copper cables),實現每秒130 terabytes(130兆位元組)的全對全頻寬。這套系統將72個Blackwell晶片或144個GPU晶片(GPU dies)連接成一個巨型GPU。
來自全球的零件從富士康(Foxconn)、緯創(Wistron)、廣達(Quanta)、戴爾(Dell)、華碩(ASUS)、技嘉(Gigabyte)、惠普企業(HPE)、超微(Super Micro)等合作夥伴(partners)運抵,由熟練的技術人員(skilled technicians)組裝成機架規模的人工智慧超級電腦(rack-scale AI supercomputer)。總計120萬個組件(1.2 million components)、2英里長的銅纜(2 miles of copper cables)、130萬億個晶體管(130 trillion transistors),總重1,800公斤(1,800 kilograms)。從第一個晶體管被蝕刻到晶圓(etched into a wafer),到最後一顆螺栓固定Blackwell機架(fastening the Blackwell rack),每一步都承載著我們合作夥伴的奉獻(dedication)、精準(precision)和工藝(craft)。
Blackwell不僅是一個技術奇蹟(technological wonder),更是台灣科技生態系統(Taiwan technology ecosystem)輝煌成就的見證。我們為共同取得的成果感到無比驕傲。感謝台灣!謝謝!謝謝!這真的非常了不起,對吧?
黃仁勳:
這一切都來自你們,來自台灣。謝謝你們!
台灣不僅為世界打造超級電腦(supercomputers),今天,我非常高興地宣布,我們也將為台灣打造人工智慧(AI)。我們與富士康(Foxconn)、台灣政府(Taiwanese government)、NVIDIA(英偉達)和台積電(TSMC)合作,宣布在台灣建造首個人工智慧超級電腦(AI supercomputer),為台灣的人工智慧基礎設施(AI infrastructure)和人工智慧生態系統(AI ecosystem)奠定基礎。謝謝!
以下是根據您的要求,參考原文內容並針對語意進行修正後的繁體中文演說稿。我已校正英文錯誤,確保語句流暢、自然,並保留演講的完整內容。英文專有名詞或關鍵詞後括號附上原文,名詞部分若適用也加註英文,同時避免濃縮,力求呈現演講原意。對於原文中語意不清或可能的語音誤識部分,我根據上下文推測並適當處理,確保演講內容連貫。
黃仁勳:
在場有誰需要一台人工智慧電腦(AI computer)?有沒有人工智慧研究人員(AI researchers)?每一位學生(student)、研究人員(researcher)、科學家(scientist)、新創公司(startup),以及每一家大型老牌企業(large established company),例如台積電(TSMC),早已在科學研究(scientific research)中大量應用人工智慧。富士康(Foxconn)也在機器人技術(robotics)領域投入了大量工作。我知道在場還有許多公司正在進行機器人研究(robotics research)和人工智慧研究(AI research)。因此,在台灣建立世界級的人工智慧基礎設施(AI infrastructure)至關重要。
這一切的目標是讓我們能夠打造像NVIDIA(英偉達)、JD、NVLink(羨慕連結)和Blackwell(布萊克威爾)這樣的世代技術,創造出這些令人驚嘆的系統(systems)。這裡展示一台來自PEGATRON(和碩)、QCT(廣達雲端運算)、緯創(Wistron)和永擎(WeWin)的設備,還有來自富士康(Foxconn)、技嘉(Gigabyte)和華碩(ASUS)的版本。你可以看到它的正面和背面。它的終極目標是將這些Blackwell晶片(Blackwell chips)——你可以看到它們的尺寸有多大——整合成一個巨型晶片(massive chip)。
實現這一目標的能力,當然得益於NVLink(羨慕連結)。但這遠遠低估了系統架構(system architecture)的複雜性,以及將所有組件連接起來的豐富軟體生態系統(software ecosystem)。150家公司共同打造了這個架構(architecture),整個技術和軟體生態系統(ecosystem)以及產業的努力,是過去三年的巨大投資(industrial investment)。
現在,我們希望讓任何想要建造資料中心(data centers)的人都能實現這個目標。這些資料中心可能包含大量的NVIDIA GB200或GB300,以及NVIDIA的加速運算系統(accelerated computing systems)。也可能來自其他公司。今天,我們要宣布一件非常特別的事情:NVIDIA NVLink Fusion(羨慕連結融合)。
NVLink Fusion(羨慕連結融合)讓你能夠打造半客製化(semi-custom)的人工智慧基礎設施(AI infrastructure),不僅僅是半客製化晶片(semi-custom chips)——那是過去的時代。你現在要建造的是人工智慧基礎設施。每個人的基礎設施可能略有不同:有些可能需要更多CPU(中央處理器),有些需要更多GPU(圖形處理器),甚至可能是其他公司的半客製化晶片(semi-custom chips)。這些系統的建造難度極高,而它們都缺少一個關鍵的組成部分——NVLink(羨慕連結)。
NVLink讓你能夠向上擴展(scale up)這些半客製化系統,打造真正強大的電腦(powerful computers)。今天,我們宣布推出NVLink Fusion(羨慕連結融合)。它的運作方式如下:這是NVIDIA的平台(NVIDIA platform),100%由NVIDIA打造,包含NVIDIA CPU(中央處理器)和NVIDIA GPU(圖形處理器)。NVLink交換器(NVLink switches)與NVIDIA的Spectrum-X或InfiniBand網卡(InfiniBand NICs)網路互連交換器(inner interconnect switches)配合,構建端到端(end-to-end)的完整基礎設施(infrastructure)。
當然,你可以根據需求混合搭配(mix and match)。我們現在讓你在運算層面(compute level)也能靈活搭配。你可以使用自己的客製化晶片(custom ASICs),我們與眾多合作夥伴合作,整合你的專用TPU(張量處理單元)、ASIC(專用積體電路)或其他加速器(accelerator)。這些加速器不限於變換器加速器(transferase accelerators),可以是你希望整合到大型系統(large-scale systems)的任何類型加速器。
我們創造了NVLink晶片(NVLink chiplet),這是一個直接與你的晶片對接的交換器(switch)。我們提供相關的智財權(IP),讓你能將其整合到你的半客製化晶片中。完成後,它能完美嵌入我提到的運算板(compute boards),並融入我展示的人工智慧超級電腦生態系統(AI supercomputer ecosystem)。
也許你想使用自己的CPU(中央處理器)。你可能已經開發了自己的CPU,並建立了龐大的生態系統(ecosystem)。你希望將NVIDIA整合到你的生態系統中。現在,我們讓這成為可能。你可以打造自己的客製化CPU,我們提供NVLink晶片到晶片介面(chip-to-chip interface),透過NVLink三重連接(triplets),直接與Blackwell晶片(布萊克威爾晶片)和我們的下一代Rubin晶片(Reuben chips)對接。這同樣能完美融入我們的生態系統。
這樣的龐大工作成果現在變得靈活且開放(flexible and open),讓每個人都能參與整合。你的人工智慧基礎設施可能包含一些NVIDIA的組件、大量的你的組件、許多CPU、許多客製化晶片,甚至也包含大量NVIDIA GPU(圖形處理器)。無論如何,你都能受益於NVLink基礎設施(NVLink infrastructure)和NVLink生態系統(NVLink ecosystem),並與Spectrum-X完美連接(connected perfectly to Spectrum-X)。
這一切都具備工業級強度(industrial strength),並得益於龐大的產業合作夥伴生態系統(ecosystem of industrial partners)。這就是NVLink Fusion(羨慕連結融合)。如果你選擇全部從NVIDIA購買,那當然是最棒的——沒有什麼比你買下所有NVIDIA產品更讓我開心的了!但即使你只購買一部分NVIDIA的產品,我也會感到非常高興。
我們有許多優秀的合作夥伴,包括聯發科(MediaTek)、Asteroid Labs(小行星實驗室)、Marvell(美滿電子),他們將與我們合作,支援半客製化客戶(semi-custom customers)、超大規模運算客戶(hyperscalers)或希望打造這些系統的CPU供應商(CPU vendors)。富士通(Fujitsu)和高通(Qualcomm)也在打造搭載NVLink的CPU,整合到我們的生態系統中。Cadence(益華電腦)和Synopsys(新思科技)與我們合作,將相關智財權轉移給他們,讓他們能協助你們,將這些技術應用到你們的晶片中。
這個NVLink Fusion生態系統(fusion ecosystem)令人驚嘆。一旦你與這些合作夥伴合作,就能立即融入更大的NVIDIA生態系統,讓你能向上擴展到人工智慧超級電腦(AI supercomputers)。
接下來,讓我談談一些新的產品類別(product categories)。你們已經看過我展示的幾款電腦,但為了服務全球更多用戶,還有一些電腦尚未推出,我將介紹它們。但在這之前,我想更新一個消息:我們的新款電腦DGX Spark(DGX火花)已經進入全面量產(full production),預計幾週內即可上市。我們與戴爾(Dell)、惠普企業(HPE)、技嘉(Gigabyte)、聯想(Lenovo)等優秀合作夥伴攜手合作。這款DGX Spark是我們的版本,但合作夥伴正在打造多種不同版本。
這款電腦專為人工智慧原生開發者(AI-native developers)設計,適合學生(students)、研究人員(researchers)。如果你不想反覆開啟雲端(cloud)、準備環境(getting it prepared)或清理數據,你可以擁有自己的個人人工智慧雲端(AI cloud),隨時待命。這款電腦支援原型設計(prototyping)和早期開發(early development)。
DGX Spark提供1 petaflop(千萬億次浮點運算)的運算能力和128GB記憶體(128 gigabytes)。回想2016年我交付第一台DGX-1(DGX一號)時,它同樣是1 petaflop和128GB,但當時使用的是28GB的HBM記憶體(HBM memory)。DGX Spark則採用128GB的LPDDR5X記憶體(LPDDR5X)。兩者的性能相當,但更重要的是,你在DGX Spark上進行的開發工作,與在大型系統上的工作完全相容。這在短短十年內是一項了不起的成就。
DGX Spark適合任何希望擁有個人人工智慧超級電腦(AI supercomputer)的人。價格將由我們的合作夥伴自行決定,但可以確定的是,今年聖誕節(Christmas),每個人都能擁有一台!
我還想展示另一台電腦。如果你覺得這還不夠,想要一台更個人化的設備,請看這邊!感謝Jenny Paul。女士們、先生們,如果DGX Spark對你來說還不夠大,這裡還有另一款桌面級設備(desk-side)。這款設備同樣由戴爾(Dell)、惠普企業(HPE)、技嘉(Gigabyte)、微星(MSI)、聯想(Lenovo),以及Boxx和Lambda等出色的工作站公司(workstation companies)提供。
這是你的個人DGX超級電腦(DGX supercomputer),它的性能是你能從牆上插座(wall socket)獲得的極限。你甚至可以把它放在廚房(kitchen),但勉強能用——如果有人同時開啟微波爐(microwave),可能就超過負荷了。這是牆上插座能支援的極限。這款設備就是DGX Station(DGX站)。
它的程式設計模型(programming model)與我展示的大型系統完全相同,這是它最驚人之處。一個架構(one architecture),卻有足夠的容量和性能(capacity and performance)來運行1萬億參數的人工智慧模型(1 trillion parameter AI model)。例如,LLaMA模型(LLaMA)是70B(700億參數),而這台機器能完美運行1萬億參數的模型。
這些系統是人工智慧原生(AI-native)的電腦,專為新一代軟體(new generation of software)設計。它們無需與x86架構相容(x86 compatible),無需運行傳統IT軟體(traditional IT software)、高性能虛擬化(hypervisors)或Windows(視窗)。這些電腦專為現代人工智慧原生應用(AI-native applications)打造。當然,這些人工智慧應用可以透過API(應用程式介面)與傳統應用程式(classical applications)互動。
但為了將人工智慧帶入新世界——企業IT(Enterprise IT),我們必須回歸根本,重新發明運算(reinvent computing),將人工智慧引入傳統企業運算(traditional Enterprise computing)。企業運算有三個層次:運算(compute)、儲存(storage)和網路(networking)。既然人工智慧改變了一切,顯然也必須改變企業IT的運算、儲存和網路。
底層必須徹底改造(completely reinvented),我們正在進行這項工作。我將展示一些新產品(new products),它們將為我們開啟企業IT的大門。這些產品必須與傳統IT產業(traditional IT industry)兼容,同時增加新功能——生成式人工智慧(generative AI)。這包括數位行銷活動經理(digital marketing campaign manager)、數位研究員(digital researcher)、數位軟體工程師(digital software engineer)、數位客服(digital customer service)、數位晶片設計師(digital chip designer)、數位供應鏈經理(digital supply chain manager)等,這些都是我們過去工作的數位化人工智慧版本(AI versions)。
正如我之前提到的,代理人工智慧(agentic AI)具備推理(reasoning)、使用工具(use tools)並與其他人工智慧協作(work with other AI)的能力。從某種意義上說,它們是數位工作者(digital workers),是數位員工(digital employees)。全球正面臨勞動力短缺(shortage of labor),到2030年,預計將短缺3000萬到5000萬名工人(30 to 50 million shortage),這限制了全球的成長能力(limiting the world’s ability to grow)。
現在,我們有了這些數位代理(digital agents)與我們合作。100%的NVIDIA軟體工程師(software engineers)現在都有數位代理協助他們,提升程式碼開發的品質和效率(develop better code and more productively)。未來,我們的願景是打造一個代理人工智慧層(layer of agentic AI)。
那麼,這個世界會變成什麼樣子?企業(Enterprise)又會如何改變?
黃仁勳:
就像我們為人類工作者(human workers)設立人力資源部門(HR)一樣,未來我們將為數位工作者(digital workers)建立類似的人力資源系統。我們必須為當今的IT產業(IT industry)和IT工作者(IT workers)創造必要的工具(tools),讓他們能夠管理(manage)、改進(improve)和評估(evaluate)在公司內部運作的整個人工智慧代理家族(family of AI agents)。這就是我們希望實現的願景(vision)。但首先,我們必須重新發明運算(reinvent computing)。
我曾提到,企業IT(Enterprise IT)基於x86架構(x86)運行,執行傳統軟體(traditional software),例如虛擬化管理程式(hypervisors)、資料庫(databases)和其他經典應用程式(classical applications)。我們需要一台既能運行這些傳統功能的電腦(computers),同時又能新增一種新能力——代理人工智慧(agentic AI)。讓我們來看看這是如何實現的。
主持人1:
謝謝!
主持人3:
這是全新的RTX Pro(RTX專業版)、RTX Pro Enterprise(RTX專業版企業)和Omniverse伺服器(雜食伺服器)。這台伺服器(server)能運行一切,並與x86架構完全相容。它可以運行所有經典的虛擬化管理程式(hypervisors),例如VMware或Citrix(思傑),以及相關的虛擬桌面(virtual desktops)。你的IT部門(IT department)管理網路(network)、集群(clusters)和協調工作負載(orchestrate workload)的方式,完全不會改變。它甚至支援串流Citrix和其他虛擬桌面解決方案。
這台伺服器能運行當今世界上所有的應用程式(applications)。Omniverse(雜食宇宙)在這上面運行得完美無瑕。但更重要的是,這台電腦專為企業人工智慧代理(Enterprise AI agents)設計。這些人工智慧代理可以是純文字形式(text),也可以是電腦圖形(computer graphics),例如一個小小的數位Jensen(小玩具詹森)來協助你工作。這些代理可以以文字(text form)、圖形(graphics form)或影片形式(video form)呈現。無論是哪種形式(modality),全球已知的每一種模型(model)和應用程式都應該能在這台伺服器上運行。甚至像《危機》(Crisis)這樣的應用也能在這上面執行!
在場有沒有GeForce(G力)遊戲玩家(gamers)?看來沒有!連接這些GPU(圖形處理器),包括Blackwell(布萊克威爾)、新款Blackwell和RTX Pro 6000(RTX專業版6000)的,是一塊全新主機板(motherboard)。這塊主機板實際上是一個交換網路(switched network)。CSA(交換器架構)是一種全新類別的晶片(chips),它首先是一個交換器(switch),其次才是網路晶片(networking chip)。這是全球最先進的網路晶片(networking chip),現已進入量產(volume production)。
在CSA架構中,你可以插入GPU(圖形處理器),CX適配器(CX adapters)位於背面,透過PCI Express(PCI快線)連接。CX適配器負責它們之間的通訊(communicates between them),提供高達每秒800 gigabits(800千兆位元)的驚人網路頻寬(networking bandwidth)。這塊主機板使用收發器(transceiver)連接,每個GPU都擁有自己的網路介面(networking interface)。所有GPU現在都能透過東西向流量(east-west traffic)相互通訊,實現卓越的性能(incredible performance)。
更令人驚訝的是它的整體表現。讓我用在GTC(GPU技術大會)上展示的性能觀點,來解釋人工智慧工廠(AI factories)的性能衡量方式。我們以吞吐量(throughput)來思考,也就是每秒產生的代幣數(tokens per second),這是Y軸。你的工廠輸出越多,產生的代幣就越多。吞吐量以每秒代幣數來衡量。然而,每個人工智慧模型(AI model)並不相同,有些模型需要更多推理能力(reasoning)。因此,每個使用者的性能(performance per user)必須很高,也就是每秒代幣數每使用者(tokens per second per user)要高。
這正是工廠的挑戰:工廠通常偏好高吞吐量(high throughput)或低延遲(low latency),但很難兩者兼得。因此,挑戰在於打造一個操作系統(operating system),既能實現高吞吐量(Y軸),又能保持極低的延遲(low latency),也就是互動性(interactivity),即每秒代幣數每使用者(tokens per second per user)。
這張圖表(chart)展示了工廠所有電腦的整體性能(overall performance)。不同的顏色代表不同的配置方式(configurations),你需要靈活調整我們的GPU以實現最佳性能。有時需要流水線並行(pipeline parallelism),有時需要專家並行(expert parallelism),有時需要批次處理(batch),有時需要推測解碼(speculative decoding)。這些不同類型的演算法(algorithms)必須根據工作負載(workload)靈活應用。圖表的外部區域(pareto curve)代表工廠的整體能力(capability)。
請注意,Hopper(霍普)是全球最知名的電腦,H100(H100)和HGX(HGX)系統售價約22.5萬美元,位於圖表下方。而Blackwell企業伺服器(Blackwell server)的性能是Hopper的1.7倍。但更令人震驚的是LLaMA 70B(美洲駝70B)和DeepSeek R-1(深海R一號)的表現。DeepSeek R-1的性能是H100的4倍,這得益於其高度優化(optimized)。DeepSeek R-1是對全球人工智慧產業(AI industry)的真正禮物,其電腦科學突破(computer science breakthrough)極為顯著,為美國及全球研究人員(researchers)開啟了眾多研究方向。它改變了人們對人工智慧、推理(inference)和推理人工智慧(reasoning AI)的思考方式,為產業和世界做出了巨大貢獻。
如果你正在打造企業人工智慧(Enterprise AI),我們現在為你提供了一款出色的伺服器(server)和系統(system)。這台電腦能運行任何應用程式(anything),無論是x86還是人工智慧,表現都無與倫比。RTX Pro伺服器(RTX專業版伺服器)已在我們所有的產業合作夥伴(partners)中進入量產(volume production)。
這可能是我們有史以來推向市場(go-to-market)規模最大的系統(system)。非常感謝大家!這台電腦平台(computer platform)與眾不同,儲存平台(storage platform)也截然不同。
原因在於,人類查詢結構化資料庫(structured databases),例如SQL(Sequel)。但人工智慧(artificial intelligence, AI)需要查詢非結構化資料(unstructured data),它們追求語義(semantic)和意義(meaning)。因此,我們必須打造一個全新的儲存平台(storage platform)。這就是NVIDIA人工智慧資料平台(NVIDIA AI Data Platform)。
就像SQL伺服器(SQL servers)和來自儲存供應商(storage vendors)的檔案儲存軟體(file storage software)一樣,這個平台包含一層非常複雜的軟體(software layer)。大多數儲存公司(storage companies)其實主要是軟體公司,這層軟體極其複雜。在這個新型儲存系統之上,我們開發了一個全新的查詢系統(query system),我們稱之為NVIDIA AIQ(人工智慧查詢,IQ)。這是當前最先進的技術(state-of-the-art),表現非常出色。我們與儲存產業(storage industry)的幾乎所有公司合作,共同打造這一平台。
未來的儲存系統將不再是CPU(中央處理器)位於儲存機架(rack of storage)之上,而是GPU(圖形處理器)位於儲存機架之上。原因在於,系統需要在非結構化資料(unstructured data)和原始資料(raw data)中嵌入(embed)並提取意義(find the meaning)。這需要進行索引(index)、搜尋(search)和排名(ranking),這些過程極其需要大量運算(compute-intensive)。因此,未來大多數儲存伺服器(storage servers)將配備GPU運算節點(GPU computing node)。
這一切都基於我們打造的人工智慧模型(AI models)。我即將展示的內容幾乎都始於出色的人工智慧模型。我們投入大量精力和技術,對開源人工智慧模型進行後期訓練(post-training)。我們使用對用戶完全透明的數據(transparent data)進行訓練,這些數據安全且可靠(safe and secure),並且完全適合用於訓練。我們公開數據清單(make the list available),讓你清楚了解。我們的後期訓練模型(post-trained models)性能極佳,目前可下載的開源推理模型(open-source reasoning model)中,LLaMA Nemotron推理模型(美洲駝尼莫特隆推理模型)是全球最佳,已被廣泛下載(downloaded tremendously)。
我們還為這些模型搭配了其他人工智慧模型,支援所謂的IQ查詢(IQ, retrieval part),其速度比現有技術快15倍(15 times faster),查詢結果準確性提升50%(50% better query results)。這些模型全部開放給你使用,IQ藍圖(IQ blueprint)是開源的(open-source)。我們與儲存產業合作,將這些模型整合到他們的儲存堆疊(storage stack)和人工智慧平台(AI platform)中。
這就是VAST(廣闊)的成果。讓我為你展示VAST人工智慧平台的架構,以及整合其中的人工智慧模型。讓我們來看看VAST的成就。
主持人3:
生成式人工智慧(generative AI)正在改變企業使用數據進行決策的方式。僅僅三天時間,VAST就利用NVIDIA IQ藍圖(NVIDIA IQ blueprint)打造了一個銷售研究人工智慧代理(sales research AI agent),並結合其加速人工智慧資料平台(accelerated AI data platform)。
這一平台使用Nemo Retriever(尼莫檢索器),持續提取(extracts)、嵌入(embeds)並索引資料(indexes data),實現快速語義搜尋(fast semantic search)。首先,代理會起草一個大綱(drafts an outline),然後連接到客戶關係管理系統(CRM systems)、多模態知識庫(multi-modal knowledge bases)和內部工具(internal tools)。最後,它使用LLaMA Nemotron(美洲駝尼莫特隆)將大綱轉化為一步步的銷售計劃(step-by-step sales plan)。
過去需要數天的銷售計劃(sales planning),現在只需一個人工智慧提示(AI prompt),幾分鐘內即可完成計劃(ends with a plan in minutes)。有了VAST的加速人工智慧資料平台(accelerated AI data platform),企業可以為每位員工(employee)打造專屬的代理(specialized agents)。
黃仁勳:
這就是VAST(廣闊)的成果。戴爾(Dell)擁有出色的人工智慧平台(AI platform),是全球領先的儲存供應商(storage vendors)之一。日立(Hitachi)也打造了卓越的人工智慧資料平台(AI data platform)。IBM正與NVIDIA Nemo(尼莫)合作,開發人工智慧資料平台。NetApp(網域)也在構建人工智慧平台。正如你所見,這些平台全部對你開放(open to you)。如果你正在打造一個具備語義查詢(semantic query)的人工智慧平台,並以NVIDIA Nemo為核心,那麼這是全球最佳的解決方案。
這為企業提供了運算(compute for Enterprise)和儲存(storage for Enterprise)的能力。下一部分是一層全新的軟體(software layer),我們稱之為AI OS(人工智慧作業系統)。就像供應鏈(supply chain)有其運營系統(ops),人力資源(HR)有其運營系統,未來,企業IT將擁有AI OS。這套系統將負責清理數據(cure data)、微調模型(fine-tune models)、評估模型(evaluate models)、設置護欄(guardrail)、保護模型安全(secure models)。我們提供了一系列必要的程式庫(libraries)和模型(models),以整合到運營生態系統(ops ecosystem)中。
我們有優秀的合作夥伴(partners)協助我們將這套系統推向市場(take it to market)。CrowdStrike(群擊)、Dataiku(數據庫)和DataRobot(數據機器人)正與我們合作,開發微調模型(fine-tuning models)並部署模型(deploying models),以支援企業中的代理人工智慧(agentic AI)。你可以看到,NVIDIA的程式庫和模型無處不在地整合到這些平台中。這裡有DataRobot的數據堆疊(data stacks)、Elastic(彈性)、New Relic(新聖物)、Red Hat(紅帽),以及台灣的趨勢科技(Trend Micro)。我想我剛才看到EVA了!嗨,EVA!好吧,可能有些偏見(biases),但這就是我們的成果。
這就是我們將人工智慧帶入全球企業IT(world’s Enterprise IT)的方式。你無需徹底改造企業IT組織(rip out everything from Enterprise IT organizations),因為企業必須正常運作(companies have to run)。但我們可以將人工智慧融入其中(add AI into it)。現在,我們擁有企業級(Enterprise-ready)的系統,並與卓越的生態系統合作夥伴(ecosystem partners)合作。我想我剛才看到了Jeff!Jeff Clark(傑夫·克拉克),這位偉大的Jeff和我一樣,來台灣的時間非常長,一直是你們的長期合作夥伴。這就是Jeff Clark。
我們的生態系統合作夥伴,例如戴爾(Dell)等人,將把這些平台(platforms)推向全球企業IT。現在,讓我們來談談機器人(robots)。代理人工智慧(agentic AI)可以有很多稱呼方式,但本質上是數位機器人(digital robots)。這是因為機器人需要感知(perceives)、理解(understands)和計劃(plans),這正是代理人工智慧的核心功能。但我們也希望打造物理機器人(physical robots)。
要成為一個出色的機器人,首先需要學習(learn to be a robot)。在物理世界中進行學習並不高效,因此我們需要創造一個虛擬世界(virtual world),讓機器人在其中學習如何成為優秀的機器人。這個虛擬世界必須遵循物理定律(laws of physics)。然而,大多數物理引擎(physics engines)無法高保真地(with fidelity)處理剛體(rigid body)和柔體模擬(soft body simulation)。為此,我們與Google DeepMind(谷歌深度思維)和Disney Research(迪士尼研究)合作,打造了全球最先進的物理引擎(physics engine)——Newton(牛頓)。
主持人3:
Newton(牛頓)。
黃仁勳:
Newton是全球最先進的物理引擎,將於7月開源(open source)。它的能力令人驚嘆,100%由GPU加速(GPU-accelerated),具備可微分性(differentiable),能從經驗中學習(learn from experience)。它的模擬保真度極高(high fidelity),並能超即時運行(super real-time)。我們將Newton引擎整合到Mojo Go和NVIDIA Isaac Sim(英偉達艾薩克模擬)中,無論你使用哪種模擬環境(simulation environment)或框架(framework),都能輕鬆應用。有了這些技術,我們就能讓機器人活起來(bring robots to life)。
主持人1:
(語意不清,推測為現場互動或誤識,如“Noy lost on the Sunday”)一切還好吧?
黃仁勳:
(回應現場互動)你在做什麼?哈哈!誰不想要這樣的機器人?我就想要!想像一下,幾個小機器人在家裡跑來跑去,追著你的狗,把牆弄得亂七八糟!
你們有沒有看到剛才的展示?那不是動畫(animation),而是模擬(simulation)。機器人在沙子(sand)和泥土(dirt)中滑動,所有細節都是模擬出來的。機器人的軟體(software)在模擬環境中運行,這不是預製動畫,而是即時模擬。未來,我們會將訓練好的人工智慧模型(AI models)植入模擬中的機器人,讓它學習成為出色的機器人。
我們正在做多項工作來推動機器人產業(robotics industry)。你們知道,我們在自動化系統(autonomous systems)領域已耕耘多年。我們的自動駕駛汽車(self-driving car)主要包含三個系統:首先是創建人工智慧模型的系統,使用GB200(國標200)或GB300(國標300)進行訓練(training)。接著是Omniverse(雜食宇宙),用於模擬人工智慧模型(simulating the AI model)。完成後,將人工智慧模型植入自動駕駛汽車。
今年,我們與Mercedes-Benz(賓士)合作,在全球部署端到端(end-to-end)的自動駕駛汽車。我們創造了整個技術堆疊(stack),並將其完全開放(open the entire stack)給合作夥伴(partners)。他們可以選擇使用我們的電腦(computer)、程式庫(library)或運行時(run-time),根據自己的工程團隊(engineering teams)、工程風格(engineering styles)和技術能力(engineering capabilities)靈活搭配。我們希望以最簡單的方式提供技術,讓每個人都能輕鬆整合NVIDIA的技術(integrate NVIDIA technology)。
就像我說的,我當然希望你們買下所有NVIDIA的產品,但至少請買點什麼吧!
主持人3:
非常實用(practical)!
黃仁勳:
我們在機器人系統(robotic systems)上採取了與汽車相同的策略。這就是我們的Isaac Robot Platform(艾薩克機器人平台)。模擬環境與Omniverse(雜食宇宙)一致,訓練系統(training system)也相同。完成模型後,將其植入Isaac平台(艾薩克平台)。這個平台以一款全新電腦Jetson Thor(捷森索爾)為核心,這款處理器(processor)已進入量產(in production),專為機器人設計,適用於自動駕駛汽車(self-driving cars)和人形機器人系統(humanoid robotic systems)。
其上的作業系統(operating system)是NVIDIA Isaac(英偉達艾薩克),負責所有神經網路處理(neural network processing)、感測器處理(sensor processing)和資料管線(pipelines),並交付最終結果。我們與頂尖的機器人團隊(robotics team)合作,預訓練了多個模型(pre-trained models),並提供所有必要的工具(tools),包括模型本身。
今天,我們宣布Isaac Robot 1.5(艾薩克機器人1.5)現已開源(open source),向全球開放使用。它已被下載6000次(downloaded 6,000 times),受到社群的高度讚賞(appreciation from the community)。這正在創造巨大的價值。我們也公開了模型的創建方式(open the way we created them)。
黃仁勳:
機器人技術(robotics)和人工智慧(artificial intelligence, AI)領域的最大挑戰在於你的數據策略(data strategy)。這是一個需要大量研究(research)和技術投入(technology)的領域。在機器人技術中,人類示範(human demonstration)至關重要,就像我們教導孩子(demonstrate to children)或教練指導運動員(coach demonstrates to an athlete)一樣。你可以透過遠端操作(tele-operations)向機器人展示如何執行任務(perform the task)。
機器人能從這些示範中進行概括(generalize),因為人工智慧具備泛化能力(generalization),而我們擁有支援泛化的技術(technology for generalization)。你可以從單一示範中得出廣泛的結論。但如果要教機器人學習一大堆技能(a whole bunch of skills),需要多少遠端操作人員(tele-operation people)?答案是:非常多!
因此,我們決定利用人工智慧放大人類示範系統(amplify human demonstration systems)。這本質上是從真實世界到真實世界的過程(real to real),透過人工智慧擴展和放大在人類示範過程中收集的數據量(amount of data),以訓練模型(train a model)。讓我們來看看這是如何實現的。
主持人3:
通用機器人時代(age of generalist robotics)已經到來,得益於巨型電子學(megatonics)、物理人工智慧(physical AI)和即時嵌入式運算(embedding computing just-in-time)的突破。全球勞動力短缺(labor shortages)正在限制產業成長(industrial growth),而機器人製造商(robot makers)面臨的主要挑戰是缺乏大規模的真實和合成數據(large-scale real and synthetic data)來訓練模型(train models)。
人類示範受限於一天的時間(number of hours in a day),無法有效擴展(scalable)。開發者(developers)可以利用NVIDIA Cosmos(英偉達宇宙)和物理人工智慧世界基礎模型(physical AI world foundation models)來放大數據(amplify data)。Grok Dreams(成長夢想)是基於Cosmos打造的藍圖(blueprint),用於生成大規模合成軌跡數據(large-scale synthetic trajectory data generation),實現從真實到真實的數據工作流程(real-to-real data workflow)。
首先,開發者透過遠端操作記錄的單一任務、單一環境的人類示範(human demonstrations recorded by tele-operation),來微調Cosmos(宇宙)。接著,他們使用圖像(image)和新指令(new instructions)提示模型,生成夢境(dreams)或未來世界狀態(future world states)。Cosmos是一個生成模型(generative model),因此開發者可以使用新的動作詞(action words)進行提示,而無需重新捕捉新的遠端操作數據(new tele-operated data)。
主持人1:
然後呢?
主持人3:
一旦生成大量夢境(large number of dreams),Cosmos會推理(reasons)並評估每個夢境的品質(evaluate the quality of each dream),選出最佳的用於訓練(selecting the best for training)。但這些夢境仍只是像素(pixels)。機器人需要從動作(actions)中學習。Grok Dreams藍圖(Grok Dreams blueprint)能從二維夢境影片(2D dream videos)生成三維動作軌跡(3D action trajectories),並用於訓練機器人模型(robot model)。
Grok Dreams讓機器人以最少的手動捕捉(minimal manual captures)學習多樣化的新動作(huge variety of new actions)。一小隊人類示範者(small team of human demonstrators)現在能完成數千人的工作量。Grok Dreams讓開發者更接近解決機器人數據挑戰(robot data challenge)。
黃仁勳:
沒錯吧?要實現機器人技術,你需要人工智慧(AI)。但要教會人工智慧,你同樣需要人工智慧。這正是代理時代(era of agents)的偉大之處:我們需要大量合成數據生成(synthetic data generation)、機器人技能學習(skill learning)——也就是微調(fine-tuning)和強化學習(reinforcement learning),以及巨量的運算能力(enormous amount of compute)。
這是一個全新的時代,人工智慧的訓練(training)和運行(running)都需要大量運算。正如我之前提到的,全球正面臨嚴重的勞動力短缺(severe shortage of labor)。人形機器人(humanoid robotics)之所以重要,是因為它們是唯一能幾乎無處不在部署的機器人形式(deployed almost anywhere)。它們適用於既有環境(brownfield),無需全新建設(greenfield),能融入我們為自己打造的世界(world we created),執行我們設計的任務(tasks we made for ourselves)。
人形機器人的驚人之處不僅在於它們的多功能性(versatile),更在於它們可能是唯一真正可行的機器人形式(only robot likely to work)。這是因為技術需要規模(scale)。至今大多數機器人系統(robotic systems)的產量太低(low volume),無法達到啟動技術飛輪(flywheel)的規模,難以吸引足夠的技術投入(dedicate enough technology)來持續改進。
但人形機器人(humanoid robots)有望成為下一個數萬億美元的產業(multi-trillion dollar industry)。技術創新的速度極快(incredibly fast),對運算(computing)和資料中心(data centers)的需求巨大。這類應用需要三台電腦(three computers):一台用於學習的人工智慧電腦(AI for learning),一台模擬引擎(simulation engine),讓人工智慧學習成為機器人,
主持人3:
在虛擬環境(virtual environment)中,
黃仁勳:
以及一台用於部署的電腦(deployment)。
未來,所有移動的物體都將成為機器人(everything that moves will be robotic)。當我們將這些機器人引入工廠(factories),請記住,工廠本身也是機器人化的(robotic)。今天的工廠極其複雜,例如Delta(台達電)的生產線(manufacturing line)正在為機器人未來做準備(robotic future)。它們已是機器人和軟體定義的(software-defined)。未來,工廠內將有更多機器人工作。
要設計能在工廠中作為艦隊(fleet)或團隊(team)協作的機器人(operate as a fleet),我們需要讓它們在Omniverse(雜食宇宙)中學習協同工作。你需要機器人的數位雙生(digital twin)、所有設備的數位雙生(digital twin of equipment),以及工廠的數位雙生(digital twin of the factory)。這些嵌套的數位雙生(nested digital twins)是Omniverse的核心功能。
這是Delta的數位雙生(Delta digital twin)、Wiwynn(永擎)的數位雙生。如果你看得太仔細,可能會以為這些是照片(photographs),但它們全是數位雙生(digital twins),全是模擬(simulations)。它們只是看起來很美(look beautiful)。這是PEGATRON(和碩)的數位雙生、Foxconn(富士康)的數位雙生、Gigabyte(技嘉)的數位雙生、Quanta(廣達)的數位雙生、Wistron(緯創)的數位雙生。台積電(TSMC)正在為他們的下一座晶圓廠(fab)打造數位雙生。
目前,全球正規劃價值5萬億美元的工廠($5 trillion of plants)建設,未來三年內將陸續興建。隨著世界重塑(world is reshaping)和再工業化(re-industrialization)的浪潮,各地都在建造新工廠(new plants)。這為我們提供了巨大機會,確保這些工廠能高效(cost-effectively)、按時(on time)建成。打造數位雙生是為機器人未來做準備的關鍵第一步(great first step)。
這5萬億美元的建設還不包括我們正在打造的新型工廠(new type of factory)。甚至我們自己的工廠也採用了數位雙生。這是NVIDIA人工智慧工廠的數位雙生(NVIDIA AI factory in the digital twin)。高雄(Kaohsiung)也是一個數位雙生(digital twin)。全球已有數十萬棟建築(hundreds of thousands of buildings)和數百萬英里的道路(millions of miles of roads),這些都可以成為數位雙生,例如高斯(Gaussian)。讓我們來看看這一切的成果!
主持人3:
台灣正引領軟體革新,推動製造業數位化(software to transform manufacturing)。台積電(TSMC)、富士康(Foxconn)、緯創(Wistron)、和碩(PEGATRON)、台達電子(Delta Electronics)、廣達(Quanta)、永擎(Wiwynn)和技嘉(Gigabyte)正在NVIDIA Omniverse(英偉達雜食宇宙)上開發數位雙生(digital twins),涵蓋製造流程(manufacturing process)的每一個步驟。
台積電與NVIDIA AI(人工智慧)合作,從二維CAD(2D CAD)生成整個晶圓廠(fab)的三維佈局(3D layouts)。
主持人1:
好的。
主持人3:
台積電還在cuOpt(庫優化)上開發人工智慧工具(AI tools),模擬並優化跨越多樓層的複雜管道系統(intricate piping systems),節省數個月的時間(saving months of time)。廣達(Quanta)、緯創(Wistron)和和碩(PEGATRON)在實體施工(physical construction)前,虛擬規劃新設施(new facilities)和生產線(production lines)。
主持人1:
什麼?
主持人3:
這能減少停機時間(reducing downtime),節省數百萬美元的成本(saving millions in costs)。和碩模擬錫膏點膠(solder paste dispensing),有效降低生產缺陷(reducing production defects)。
主持人1:
(推測為現場互動,可能為“Noy”誤識)哇!
主持人3:
廣達利用西門子Teamcenter X(西門子團隊中心X)結合Omniverse(雜食宇宙),分析並規劃多步驟流程(multi-step processes)。富士康(Foxconn)、台達電子(Delta)和廣達使用Cadence Reality(凱登斯現實)數位雙生(digital twin)模擬測試資料中心的電源和冷卻效率(power and cooling efficiency)。
此外,這些公司正在開發具備物理人工智慧(physical AI enabled)的機器人(robots)。每家公司將其數位雙生作為機器人訓練場(robot gym),用於開發、訓練、測試和模擬機器人,包括機械手臂(manipulators)、自主移動機器人(AMRs)、人形機器人(humanoid robots)或視覺人工智慧代理(vision AI agents),無論是單獨執行任務(perform tasks)或作為多元化艦隊(diverse fleet)協作。
主持人1:
太棒了!
主持人3:
當數位雙生透過物聯網(IoT)與物理雙生(physical twin)連接時,每個數位雙生都變成一個即時互動式儀表板(real-time interactive dashboard)。
主持人1:
這實在太好了!
主持人3:
和碩利用NVIDIA Metropolis(英偉達大都會)打造人工智慧代理(AI agents),幫助員工學習複雜技術(complex techniques)。台灣甚至將數位雙生應用到城市管理(cities)。Linker、Vision和高雄市(Kaohsiung)使用數位雙生模擬不可預測場景的影響(effects of unpredictable scenarios),並開發監控城市攝影機串流(city camera streams)的人工智慧代理,實時向第一反應單位(first responders)發送警報(instant alerts)。
工業人工智慧時代(age of industrial AI)已經到來,由台灣的技術領袖(technology leaders)開創,搭載Omniverse(雜食宇宙)的強大動力。
黃仁勳:
我的整個主題演講(keynote)都是你們的成果,真的太出色了!這是理所當然的,台灣位於最先進產業的中心(center of the most advanced industry),是人工智慧(AI)和機器人技術(robotics)的震央(epicenter)。這對台灣來說是一個非凡的機會(extraordinary opportunity)。
台灣是全球最大的電子製造地區(largest electronics manufacturing region)。因此,人工智慧和機器人技術將改變我們所做的一切(transform everything that we do)。這是一個歷史性的時刻,你們的工作已經革新了每個產業(revolutionized every industry),現在它將回過頭來革新你們自己的產業(revolutionize yours)。
一開始,我說過GeForce(G力)將人工智慧帶到世界(brought AI to the world),然後人工智慧反過來改變了GeForce。你們將人工智慧推向全球,現在人工智慧將回來改變你們所做的一切(transform everything that you do)。與你們合作是一大樂事,謝謝大家!
我今天已經宣布了幾款新產品(products),但我還有一個新產品要揭曉。我們一直在打造NVIDIA星座(NVIDIA Constellation)。我認為現在是時候展示我們有史以來最大的產品之一了。它就停在外面,等著我們。讓我們去看看吧!
主持人3:
(推測為現場互動,語意不清)太棒了!
黃仁勳:
這就是NVIDIA Constellation(英偉達星座)。你們知道,我們一直在成長(growing),與你們的合作關係(partnerships)也在擴展。我們在台灣的工程師團隊(engineers)規模不斷增加。現在,我們的成長已經超過了現有辦公室的限制(limits of our current office)。
因此,我宣布我們將在台灣建造一座全新的NVIDIA辦公室,命名為NVIDIA Constellation(英偉達星座)。我們已經選定了地點(selecting the sites),各城市的市長(mayors)對我們非常友善,提供了很好的條件(nice deals)。雖然看起來有點貴(quite expensive),但頂級地產(prime real estate)就是這樣。
今天,我很高興宣布,NVIDIA Constellation將位於台北101(beetle shilling,推測為“Taipei 101”誤識)。我們已經與現有租約持有者(current owners of the lease)談妥了租約轉讓(transfer of the lease)。但我了解到,台北市長(mayor)希望確認台北市民(people of Taipei)是否支持我們在這裡建造一座大型且美麗的NVIDIA Constellation。
你們支持嗎?市長還要求你們打電話給他(call him)。我知道你們有他的電話號碼,馬上打給他,告訴他這是個好主意!
這就是NVIDIA Constellation。我們將盡快開始建造(start building as soon as we can),因為我們急需辦公空間(office space)。NVIDIA Constellation,位於台北101,非常令人興奮!
我要感謝你們所有人,感謝你們多年來的合作(partnership)。我們正處於一個千載難逢的機會(once-in-a-lifetime opportunity)。毫不誇張地說,我們面前的機會無比巨大(extraordinary)。這是我們合作以來的第一次,不僅在創造下一代IT(next generation of IT)——從個人電腦(PC)、網際網路(Internet)、雲端(cloud)到行動雲端(mobile cloud),我們已經歷過多次這樣的轉型——但這一次,我們不僅在創造下一代IT,還在開創一個全新的產業(whole new industry)。
這個新產業將為我們帶來巨大的機會(giant opportunities)。我期待與你們所有人繼續合作,打造人工智慧工廠(AI factories)、企業代理(agents for enterprises)和機器人(robots)。感謝你們這些出色的合作夥伴(amazing partners),與我們共同圍繞單一架構(one architecture)構建生態系統(ecosystem)。
感謝大家今天蒞臨。祝大家在Computex(台北國際電腦展)玩得開心!謝謝!謝謝你們的到來!謝謝!