2025 AIA 春季論壇-Youtube直播 AI逐字稿
https://www.youtube.com/live/cmYn3cmhj80
開源模型的衝擊與對應
陳伶志 執行長 台灣人工智慧學校
資創中心協辦
講者2:陳伶志
講者3:陳炳宇 副主委 國家科學及技術委員會
數位發展部的林宜敬 次長
講者5:發科技(MediaTek)企業策略與前瞻技術資深處長梁伯嵩
開源模型的衝擊與對應
2025 AIA 春季論壇-Youtube直播 AI逐字稿
講者1:
現場直播。大家好,各位尊貴的來賓、各位線上與現場的朋友們,大家早安!歡迎蒞臨2022-2025 AIA春季論壇。本次論壇的主題是「開源模型的衝擊與對應」,由台灣人工智慧學校主辦。我是今天的主持人,台灣人工智慧學校產學長郭炳成博士。今天的主題將深入探討在人工智慧(AI)開源模型浪潮之下,台灣如何把握機會、應對挑戰。本論壇旨在為與會者提供最前沿的觀點,以及對實務的深刻洞見。非常榮幸能與各位共同參與這場智慧的盛會。
恰好在兩年前,我們也在同樣的場地見證了生成式AI(Generative AI)的快速崛起,以及產業與社會對其即時回應的殷切期盼。當時我們籌備了春季與夏季兩場生成式AI工作坊,讓社會大眾能夠迅速理解並應用這項技術。兩年後,當深度學習(Deep Learning)模型直接開源後,整個AI生態系統又迎來了一場波瀾壯闊的轉型與變革。因此,AI的發展再次來到了一個關鍵的轉捩點,從模型的自主可控性、企業導入的挑戰,到開源社群的共創價值,這些都是我們今天要探討的主題。
在春季論壇的開幕序幕中,我們非常榮幸邀請到三位貴賓致詞。首先,讓我們以熱烈的掌聲歡迎我們今天的主辦單位——台灣人工智慧學校執行長陳凌志博士、中華民國資訊學會陳副主委,以及資訊學會理事長。
講者2:
各位與會的貴賓、台灣人工智慧學校的好朋友們,大家早安!今天是台灣人工智慧學校舉辦的春季工作坊,主題是「開源模型的衝擊與對應」。我非常感謝中央研究院資訊研究所及資創中心長期以來對我們的協助與協辦。台灣人工智慧學校自2018年創立以來,一直致力於AI的推廣與人才培育,更重要的是培養台灣人才以提升產業競爭力。這段期間,我們見證了AI的蓬勃發展。特別是在2022年底,ChatGPT的推出讓我們開始感受到生成式AI快速滲透到我們生活的各個領域,以及工作中的每一個環節。
今年1月,第四代R1推出後,我想在座的許多人在過年期間就被召回,立即投入工作模式。因為R1的問世再次將生成式AI推向另一個境界。隨後萬眾矚目的版本釋出,雖然帶來了不少爭議,但無論如何,大家一致認同它在技術上有其獨到之處,並且在成本上確實有所降低。更重要的是,它背後代表的開源意涵掀起了廣泛的討論。
「開源」(Open Source)這個名詞在台灣其實並不陌生,我想在座各位都很熟悉。台灣推廣開源已有相當長的歷史,也孕育了不少開源愛好者。早在1990年代學術網路興起時,就有一群前輩熱心投入,從自由軟體的精神出發,直到2003年,在中央研究院創立了自由軟體鑄造場,成為台灣開源人才的匯集地。這段時間以來,台灣在開源領域已走過相當長遠的路。
我們常說,AI的發展需要算力(Computing Power)、演算法(Algorithms)、資料(Data)和人才(Talent)。長久以來,我們也常提到台灣受限於算力,難以與國際大廠抗衡。然而,自從Deepseek問世後,我們看到整個發展趨勢在演算法上不斷提升,對算力的需求也逐漸被硬體進步所滿足。如今,一些我們日常可見的軟硬體已經足以運行這些模型。在這樣的時代背景下,開源的精神促進了資訊的分享,而**台灣既有的開源經驗成為我們的一大契機,讓我們有機會迎頭趕上**。
**開源不僅是一種技術,更是一種態度**。**它不只是「開放原始碼」(Open Source),更是「開放思維」(Open Minded)**。它代表著對不同觀點的包容。我們也常發現,**支持開源的人往往充滿自信,且願意與他人分享**。今天我們很榮幸匯聚了許多開源界的前輩,並邀請了幾位在開源領域知名的講者與大家分享經驗。我們也非常高興有這麼多與會者共襄盛舉。我認為今天的活動不僅是聆聽前輩們的經驗分享,更重要的是在這個會場中,大家能彼此認識、結交朋友,未來在不同場域中合作,發揮開源與分享的精神。
最後,預祝今天的活動圓滿成功,祝大家滿載而歸,身體健康,萬事如意。謝謝!
講者1:
接下來,我們邀請國家科學及技術委員會政務副主委陳炳宇先生為我們致詞。有請!
講者3:陳炳宇
好,我剛來的時候才發現今天有直播,所以我得小心說話,不能亂講,只能照稿子念。資訊學會林理事長、陳凌志執行長,以及各位與會的貴賓,大家早安,大家好!本來我想聊聊之前參與開源的一些經驗,比如玩Linux、跟luna的一些故事等等。但聽完執行長的致詞後,我發現自己好像從「玩過的人」變成了「前輩」,所以還是先別提這些,免得大家真的把我當成老前輩。我總覺得自己跟陳執行長年紀差不多,怎麼就變前輩了呢?
確實,開源這件事伴隨著我們的成長。小時候——應該說是大學時——我們就開始看Linux的程式碼(Code)來學習。當網管時,也會研究Glu更多東西,拿來改進系統或修補漏洞(Debug)。所以,開源對我們的影響確實很大。不管是用來學習也好,還是許多公司用開源技術加速發展也好,開源都扮演了重要角色。如今AI的發展也是一樣,一直在變化中。今天是春季論壇,看起來像是每季都有一次這樣的活動。隨著AI的進展,每季應該都有許多新話題值得討論。
剛剛提到的這波開源浪潮——特別是第一次全面開源的模型——確實影響深遠。我們過年時都沒能好好休息,因為這些模型一開源,我們就得立刻投入工作。不過,開源這件事改變了很多。它讓一些原本想把技術藏起來的大公司,現在也願意開放出來,讓大家能更快進步。**透過開源,我們得以站在巨人的肩膀上,開發出更多應用。這對企業、學術單位或個人來說,都是非常好的機會。**
今天的題目是「開源模型的衝擊與對應」,聽起來像是探討如何面對這些變化。雖然主題提到「衝擊」,**但我覺得我們更應該看到其中的「機會」**。**開源對我們來說是一個可以抓住的契機**。台灣在科研領域其實有很多領先之處,希望能掌握這波開源浪潮,讓大家做得更好。希望今天的論壇能充分討論,激發一些新想法,或許讓林理事長聽到後,能帶回數發部,讓相關單位多加配合。
最後,祝福今天的論壇順利圓滿成功,祝大家身體健康,萬事如意。謝謝!
講者1:
謝謝陳副主委的精彩致詞。接下來,我們歡迎數位發展部的林宜敬 次長致詞。有請林次長!謝謝。
# 數位發展部的林宜敬 次長致詞
講者4:
台灣人工智慧學校的陳凌志執行長、侯一秀秘書長,國家科學及技術委員會的陳炳宇副主委,以及在場所有的學者、專家與貴賓們,大家好!今天我們的主題是「開源模型的衝擊與對應」。其實我們都知道,這Deepseek對台灣的影響非常大,不論是在技術層面、產業層面,還是政治層面,都帶來了顯著的衝擊。壞消息是,我們原本以為以美國和台灣為首的民主國家在人工智慧(AI)產業上已經大幅領先,甚至認為中國大概很難追上。然而,某個開源模型的出現讓我們發現,**這個差距其實沒有我們想像的那麼大**。中國已經逐漸追上以美國和台灣為首的陣營。我原本說這句話時感到非常驕傲(Proud),因為以前讀書時從沒想過有一天台灣也能成為世界科技強權的一員,這真的讓人非常驕傲。**但我們也必須承認,中國已經逼近我們的腳步,這是壞消息。**
然而,好消息是什麼呢?第四代模型的出現為**原本陷入困境的台灣AI產業帶來了兩個新機會**。首先,它可能解決我們所謂的「薄創新」(Thin Innovation)問題;其次,它可能大幅降低我們獲取訓練資料(Training Data)的難題。先從商業運作層面來說,過去兩年,台灣湧現了不少AI新創公司(AI Startups)。這些公司通常規模不大,多為中小型企業,它們開發了許多AI產品,而這些產品背後的核心技術其實大多依賴ChatGPT。**這些公司在各個領域推出了應用,看起來頗具吸引力,也很吸睛**。
但問題在於,**如果這些公司賺了100塊台幣的收入,其中90塊以上必須支付給ChatGPT**。換句話說,台灣這些新創公司雖然做了很多努力,**但卻無法累積自己的資本**,賺來的錢大多流向了ChatGPT。**這讓我們當時感到非常絕望**,覺得台灣的軟體新創公司在AI領域的努力**似乎缺乏核心技術,也無法真正累積資本**。然而,現在隨著像Grok這樣的開源模型(Open Source Model)出現,情況有所改變。因為這些模型本身是免費的,且程式碼公開,未來我們預期許多資料中心(Data Centers),例如NVIDIA、微軟(Microsoft)的Azure,甚至一些私人資料中心,會在它們的伺服器或雲端伺服器(Cloud Servers)上安裝Deepseek或其他開源模型。由於這些軟體是免費的,成本自然大幅降低。
因此,我們希望未來台灣的AI新創公司如果賺了100塊台幣,**可能只需支付40到50塊給這些開源模型的基礎設施提供者**,例如資料中心或雲端服務商。這些開源模型雖然是「開放參數」(Open Parameters),但具體運作細節不一定完全透明。不過無論如何,這種成本的降低將為台灣新創公司帶來新機會,**讓它們有能力累積資本**。
第二個好處在於資料獲取方面。我們知道Deepseek模型之所以引起轟動,一大原因是它的訓練成本遠低於ChatGPT。雖然它的數據是否誇大仍有爭議,但可以確定的是,它的訓練成本確實大幅下降。關鍵在於,ChatGPT最初是用人工方式訓練AI,耗費大量時間和精力去收集資料、整理資料,並清洗(Data Cleaning)掉不好的數據,這既費時又昂貴。而Deepseek模型則可能是用AI來訓練AI,直接利用現有的GPT模型進行訓練,從而節省了大量成本。當然,對台灣來說,我們不希望未來自己的在地模型(Local Model)完全依賴Deepseek特定模型來訓練。但我們可以期待的是,像ChatGPT或LLaMA這樣的模型未來可能也會釋出免費或開源的版本。我們可以利用這些開源模型來訓練自己的模型,這或許能解決目前開發新語言模型(Large Language Model, LLM)成本極高的問題。
這**些想法其實都還只是猜想和期望**。**我心中有許多問題,但目前沒有確切的答案**。因此,我非常期待在今天的研討會中能找到一些解答。我希望能從與會者的分享中獲得啟發,解開我心中的疑惑。非常感謝大家!
講者1:
好的,謝謝林理事長的精彩致詞。接下來,我們將進入今天的第一場主題演講。本場主題演講將探討「AI運算的衝擊與展望」。首先,我們有請聯發科技(MediaTek)企業策略與前瞻技術資深處長梁伯嵩演講。歡迎梁博士!
# 講者5:發科技(MediaTek)企業策略與前瞻技術資深處長梁伯嵩
好的,謝謝陳副主委、林次長,以及在場的各位前輩。今天很高興能與大家分享有關「AI運算的衝擊與展望」的觀點。最近我們談論了很多關於開源(Open Source)部分的衝擊等等,但其實我們應該從一個更宏觀的視角來看,從整個AI發展的脈絡去理解,這樣才能清楚知道deepseek目前這些事情的衝擊在哪裡,以及它們帶來了什麼樣的機會。今天我的演講主要分為三個部分:第一,過去發生了什麼;第二,現在正在發生什麼;第三,未來可能會如何發展。接下來我會簡單跟大家分享

首先,我們來看AI訓練與算力(Computing Power)的關係,這與台灣息息相關。早在2012年,AI運算需求大約是10的18次方(Exaflops,百億億次計算);到了2023年,這數字已經增長到10的26次方(也就是百萬億億次計算)。短短十年內,AI算力需求激增了1億倍。這是一個非常驚人的數字。

我們再來比較一下,過去談半導體進展時,經常提到摩爾定律(Moore’s Law)。根據摩爾定律,大約每1.5年,晶片面積的密度會倍增(Double),也就是算力翻倍。如果按照這個速度計算,10年除以1.5年,大約是6.6次,2的6.6次方接近100倍。所以在過去一二十年,如果你想預測美國超級電腦(Supercomputer)的算力進展,很簡單,就是10年增長100倍,這是由CPU推動、由摩爾定律驅動的。
然而,近年來隨著GPU平行運算(Parallel Computing)的出現,例如NVIDIA宣稱其算力10年增長超過1000倍,這是由平行運算技術帶來的突破。雖然1000倍比CPU的100倍多了10倍,但與AI算力需求增長的1億倍相比,仍然有10萬倍的差距。這時我們就能回頭理解,為什麼幾個月前某個公司宣稱要建一個擁有10萬顆GPU的資料中心(Data Center),後來覺得不夠,又追加到20萬顆。從早期訓練模型用2顎GPU,到現在大型模型需要20萬顆GPU,這直接帶動了高端半導體(High-End Semiconductor)的需求激增。台積電(TSMC)因此需要製造大量晶片(Chips),因為這些GPU要通過擴展(Scale Out)連接在一起,對IC設計和連結技術的要求也大幅提高。台灣在這個領域扮演了非常重要的角色,這就是背景。

在前幾天的GTC大會中,NVIDIA執行長黃仁勳(Jensen Huang)分享了一張投影片,提到GPU需求的爆炸性增長。過去四年,像Google的TPU、Amazon的Inferentia等大型資料中心的GPU需求大約是130萬顆;而今年,這數字預計達到360萬顆。到2028年,**整個產業的投資可能超過1兆美元**。這張圖對台灣有特別的意義,為什麼呢?首先,這裡談到的算力需求是以GPU為主,但除此之外還有許多ASIC(特殊應用積體電路)也在發展,例如Google和Amazon都在開發自己的晶片。其次,這1兆美元主要是資料中心端的投資,但別忘了,邊緣運算(Edge Computing)的增長也是一大塊。這兩者加總起來,對台灣的影響將非常巨大。

接下來進入三個階段的討論。由於時間有限,我會稍微簡化。第一階段是「機器人方案」的探索。過去有一本書叫《快思慢想》(Thinking, Fast and Slow),提到人類大腦思考時有兩種模式:System 1是快速直覺的部分,System 2是較慢且具計畫性的推理(Reasoning)部分。AI發展早期到去年9月前,主要是在探索System 1的領域。

關鍵轉折出現在2022年,當時GPT技術進入第二階段。什麼意思呢?就像訓練學生一樣,一開始是預訓練(Pre-training),餵給模型大量資料讓它學習。但光靠念書不夠,還需要老師或教練指導,並透過模擬考試檢驗是否真正理解。這就是後訓練(Post-training)的過程。

2022年11月30日ChatGPT推出時,大家驚訝地發現它的對話能力像真人一樣自然。為什麼?因為它已經進入了第二階段——後訓練階段。除了使用GPT-3的基礎,它還結合了RLHF(Reinforcement Learning with Human Feedback,人類回饋強化學習),由許多教練協助優化,並調整回答讓它更符合人類喜好。這一切在ChatGPT發酵前就已經完成,距今不過兩年多。我們來看這張圖:X軸是算力,隨著訓練模型的算力增加;Y軸是AI能力,算力越多,AI能力越強。2017年Transformer出現後,OpenAI開始以GPT-1、GPT-2、GPT-3每年一代的方式成長,每一代算力增加100倍。
這是個大膽的賭注,**因為超級電腦10年才增長100倍,而它們一年就增加100倍**。雖然預訓練階段能力增長趨緩,但加入後訓練後,能力突然大幅提升,形成第二條成長曲線。
我們熟知的ChatGPT就是在這個時間點進入大眾視野。後來的GPT-4、GPT-4o,以及其他模型如Grok,都是沿著這條曲線發展。值得一提的是,OpenAI在技術上開始嘗試降低成本,例如把Token成本降到原本的1/150,這點後面會再細講。接下來是第二階段,從去年9月開始進入「細深度探索」(Fine-grained Exploration)。這時OpenAI和其他公司開始推出更多模型,這裡我以OpenAI為例來說明。


比較線性地來說,其實不只是OpenAI,Google和其他許多廠商也都在努力推動相關技術發展,這些努力同樣重要。但OpenAI的例子特別突出,因為它凝聚了許多技術創新的精華。如果大家還記得,大約一年多前,OpenAI董事會發生了一些內部問題。當時有傳言說,因為某個重要模型(Model)被認為具有潛在危險,需要嚴格規範,董事會成員將當時的CEO開除。那個模型最初被稱為「Q Star」,後來有人澄清可能是「Qberry」或「Strawberry」。最終,當Grok等模型問世時,我們看到OpenAI在技術上有了顯著突破。例如在問答(Q&A)領域,結合Grok的技術後,其能力已經達到了人類博士級專家的水準。

在一張圖表中可以看到,如果以人類非專家級別回答GPU相關問答,平均分數大約是69分;而O1的表現已經超越了人類專家的水準。這是如何做到的呢?其實很簡單。過去我們訓練AI時,主要關注訓練階段的運算,也就是單純讓模型學習。但現實中,如果我要考你一道題目,比如一道數學題,要求你在5分鐘內快問快答,你可能算不出來。但如果給你一小時或兩小時慢慢計算,你就能得出答案,因為你可以驗算(Verification),發現錯誤後再修正。更進一步,如果我讓你把題目帶回家,給你一天時間,不僅可以查資料(Open Book),還能上網搜尋,甚至找同學一起討論,那麼這份考卷的答案一定會更好。
這裡我想用一個例子來說明,這也是GTC大會上展示的一道題目,很有意思,可以清楚展示傳統AI與具備推理能力(Reasoning Model)的AI之間的差距。左邊是LLaMA 3.3(7B參數)的傳統型AI,採用快問快答模式;右邊是一個綠色的模型(具備推理能力)。題目很簡單,是關於婚禮座位安排(Wedding Seating Problem):有17個人要坐在主桌,怎麼排呢?條件是,新郎要跟父母坐在一起,但新郎的父母和新娘的父母(岳父母)不能坐在一起,要分開。新娘要求坐在新郎左邊,因為這樣拍照好看。另外,新郎邀請了一位伴郎(Best Man),他希望伴郎坐在他旁邊,因為他們是好朋友。這樣的圓桌要怎麼安排?

這個題目看似簡單,只有7個人的座位問題,但包含三四個條件。如果我立刻要求你回答,你可能會手忙腳亂出錯。果然,左邊的LLaMA模型在快問快答模式下就出了問題。它快速給出一個排列:新郎坐在新娘左邊,這點符合要求;雙方父母分開,也沒問題。但檢查時發現,伴郎沒有跟新郎坐在一起,這就違反條件了。這個傳統模型只用了400多個Token就給出錯誤答案。而右邊的推理模型則不同,它先給出一個初步答案,發現錯誤後會反思(Reflection),再慢慢調整,最終得出正確排列。甚至當題目加入新條件,比如「如果牧師也被邀請來,要怎麼排」,它也能把牧師納入安排。這個過程總共花了8000多個Token。
這8000多個Token的關鍵在哪裡呢?它展示了推理模型不僅僅是快速生成答案,而是能像人類一樣思考、驗證並修正錯誤,這正是當前AI發展的重要突破。
在執行推理(Inference)時,這裡的Token數量增加了二十多倍,而計算量則增加了150倍,這是一個非常關鍵的點。過去我們評估AI時,往往只關注訓練端(Training)的運算需求,但實際上推理端的運算需求可能更大。好的,這裡的情況是這樣的:現在的模型發展趨勢大概是如此。假設像Google、OpenAI或xAI這樣的機構訓練了一個大型模型(Large Model),這個模型就像一個「教授級」的存在,能力包羅萬象,上知天文、下知地理,涵蓋數學、物理、化學等各個領域,無所不知。這樣的「全能模型」(Full-scale Model)追求的是極致的能力。

然而,如果將這個「教授級」模型直接部署到伺服器端(Server Side)執行任務,成本會非常高昂,因為它的運算需求極大。因此,一般會採用知識蒸餾(Knowledge Distillation)的方法來縮減模型規模。具體做法包括:將參數量(Parameters)縮減,或者使用像MoE(Mixture of Experts,專家混合模型)這樣的方式降低資源消耗,甚至通過降低精度(Precision),從32位元(32-bit)縮減到8位元(8-bit)或更低。這樣就能生成一個較小的模型,例如「研究生級」的模型,參數量大約在100億到1000億之間。這種規模的模型在運算消耗上相對較小,適合實際應用。
更進一步,如果需要更輕量化的模型,可以縮減到「十億級」(Billion-level)參數,比如10億或20億參數。這樣的模型甚至可以在終端設備(Edge Devices)上運行。現在我們在思考的問題是,像OpenAI這樣的組織,通常會訓練「教授級」或「研究生級」的模型,但這些頂尖模型往往不會完全開放。他們開放的多是中型規模(Middle-sized)的模型。然而,這些中型模型其實可以進一步被淬煉(Refinement),縮減成更小的模型,這樣就能在端側(Edge)應用上發揮作用。
這對我們來說意味著什麼樣的機會呢?更重要的是,我們可以在這些模型上加入推理時間(Inference-time Reasoning)的技術來提升能力。應用端的趨勢會如何發展呢?首先,從預訓練(Pre-training)、後訓練(Post-training),到推理(Reasoning)階段,大型模型的規則以及多模型協作推理的方式,能讓能力持續疊加。在此過程中,小型模型也能被強化。這裡為了方便說明,我們把OpenAI的發展脈絡統整出來。

好的,現在回到剛才各位講者提到的問題:「第四代模型到底在做什麼?」其實它的定位大概就在這裡。我們來看時間線:去年12月底,某個模型推出了V3版本,對標的是當時的GPT-4o(大概是去年5月發布的)。之後,某個版本在今年9月釋出,而另一個版本則在今年1月多(過年前)推出。這些模型的對標位置大致在這個時間區間內,這樣我們就能大致了解當前的競爭戰場在哪裡。接下來我們來看看具體情況。

首先,這張圖是我平常用來向工程師解釋的,雖然簡單,但值得一提。右邊列出了OpenAI每一代模型的參數數量(Parameter Count)以及發布時間點。順便提一下,這裡的參數數據並非OpenAI官方公布,而是來自一篇微軟(Microsoft)的論文,我直接引用了這些數據。可以看到,某個模型已經進行了一次縮減。以V3版本為例,它比GPT-4o晚了約半年推出,參數量大約是670億(670B),並採用了MoE技術來降低成本,最終實際運作的參數大約是37億(37B),這是它對標的基礎。
而Deepseek在這個版本中開始引入了「推理時間計算」(Inference-time Computation)的概念,並以此進行對標。在這個過程中,Deepseek實際上做了兩件事。第一件事是從頭開始訓練Deepseek。它的技術是什麼呢?如果大家還記得當初AlphaGo下圍棋的例子,AlphaGo最初是用人類的所有棋譜來訓練,最終打敗了人類棋王。但後來推出了AlphaGo Zero,完全從零開始,讓AI自己對弈訓練,結果超越了原本的AlphaGo。Deepseek,利用強化學習(Reinforcement Learning)來訓練Grok,特別是在後續的部分。然而,從論文來看,這種方法似乎有勝有負。於是他們後來又加入了大量的人類反饋(Human Feedback),包括來自Facebook和Reddit的數據,來優化Grok。這一點是與Grok進行對比的依據。
不過,我們必須認識到,這裡的競爭是動態的。後來有人聲稱某個模型在某些方面超越了Grok,而Grok推出後,又有像Deepseek v3甚至在前,還有一批模型問世。更值得注意的是,Deepseek在第四代模型中,將像Qwen(千問)或LLaMA這樣的模型縮減成小型模型(Small Model),並通過蒸餾(Distillation)保留其能力。這一點對台灣來說尤其需要關注。
簡單來說,為什麼這是Grok的模型呢?從時間上看,它比Grok晚了大約半年推出,但實際上勝負參半。然而,我們會發現,在性能表現上,Grok更注重編碼(Coding)和數學(Mathematics)能力,而在英語文本(English Text)方面,與OpenAI的模型相比仍有勝有負。因此,如果聚焦於文本生成(Text Generation)或編碼與錯誤修正(Mistake Correction)的部分,這可能是一個更值得重視的重點。

我們經常聽到有人說,Deepseek的訓練成本只有550萬美元,太低了,而OpenAI花了更多錢。這個成本數據其實是從論文中直接摘錄的。論文假設最後一次訓練時租用了H800 GPU,每小時租金2美元,這樣算下來總成本約為550萬美元。但這樣的算法忽略了很多隱藏成本:GPU的總計算成本(Compute Cost)沒算進去,研發人員的薪資成本沒算,資料準備成本也沒算,更不用說多次實驗試錯和迭代的費用了。舉個例子來說,這就像你去旅遊時租了一輛車,比如奔馳、BMW或特斯拉,一天花了5000塊租車費。你能說這輛車的價值只有5000塊嗎?甚至說別人花幾百萬買這輛車不划算?這種說法顯然不對,因為它混淆了短期租用和長期擁有的成本概念。

在這裡,我們可以更清楚地看到這個數據的意義。第四代模型將能力蒸餾到第二層的千問以及像LLaMA這樣的小型模型中,這裡出現了一個很有趣的現象。以Qwen為例,它蒸餾出7B(70億參數)和4B(40億參數)的模型後,在數學(Math)和AI問答(AI Q&A)以及編碼(Coding)方面的能力非常強,分數也很高。但如果回顧半年前,也就是去年5月13日的版本,當時由於沒有特別優化,這些模型的數學和編碼能力其實相對較弱。這揭示了一個現象:當大型模型的數學解題能力持續增強後,將其濃縮成小型模型的能力,甚至能讓邊緣端(Edge Device)的小模型表現超越半年前雲端大型模型的水準。這是非常重要的一點。
更關鍵的是,如果模型縮減到7B這樣的規模,說實話,它其實是有機會運行在你的手機上,而不是只能放在筆記型電腦(Notebook)裡。

所以說,這是一個非常重要的訊息,我覺得可能比前面提到的那些訊息還要重要。從中我們可以得到的啟示是什麼呢?我們看到,包括NVIDIA的黃仁勳(Jensen Huang)、OpenAI、Google以及Meta(美塔),都在各自的領域有不同的進展。因此,我們大致可以得出一個結論:這是一個工程上的重大進展。但在AI整體發展的脈絡中,它只是中間的一站,而不是根本性的突破。Google和Meta也提到過這一點。事實上,裡面使用的各種技術大多是已知的,甚至包括優化的技術,比如開源(Open Source)的部分,在過去一年中已經廣為人知。去年我在ISCC演講時,就有同場的NVIDIA的Director,Demo過了類似的技術應用。

所以說,這些技術本身並沒有特別革命性的創新,但關鍵在於他們把工程做到極致,讓技術能夠落地,這是我認為最重要的部分。在這個過程中,我們可以看到AI的發展路徑開始發生變化。之前我們談到AI演進時,並不是單純沿著一條直線走到終點,而是每次有新技術出現時,就會逐步向上疊加。現在出現了兩條路徑:
**第一條路徑是持續探索人工智慧的能力**,也就是通用人工智慧(AGI, Artificial General Intelligence)的極致AI能力。這部分是OpenAI和xAI等機構正在努力的方向。**第二條路徑則是讓AI普及化,通過縮減模型規模(Model Shrinking)的方式,讓AI能夠應用於更廣泛的場景**。這條路徑可以降低雲端AI的消耗、本地部署(Local Deployment)的成本,甚至應用於邊緣設備(Edge Devices被啟動、驅動起來)。
因此,隨著第一條路徑的進步,第二條路徑也會隨之提升。就像我們剛才看到的,如果從早期的大型模型直接縮減成小型模型,能力可能不強;但如果從具備推理能力(Reasoning)的模型(如DeepSeek R1)開始濃縮,效果就會顯著提升。
再來談第二個關鍵詞——「開源」(Open Source)。其實對我們來說,開源的最大意義是什麼?在推理模型(Reasoning Model)或未來整體模型發展中,如果我們能利用這些較強的大型模型,再將其濃縮成小型模型,這對我們的意義才是最大的。**而開源正是促進AI應用普及化的重要推手**。
好的,在整個AI體系中會發生什麼事情呢?我們可以開始想像。過去使用AI時,大家常覺得模型(Model)實在太大,算力(Computing Power)需求太高,所以只能依賴雲端運算(Cloud Computing)。像微軟(Microsoft)、OpenAI、Google這樣的巨頭,或者像NVIDIA這樣的硬體供應商,才有能力提供這樣的算力支持。除此之外,可能只有政府為了維護自身的主權AI(Sovereign AI),或者一些知名大企業,才會自行部署這樣的系統。過去我們看到的AI應用大多局限在這些領域。然而,當小型模型(Small Model)出現後,它開始啟用(Enable)更多可能性。

首先,在研發需求的建設上,以目前我們正在研發的下一代通訊技術為例,從5G進展到6G,AI在6G網路中將扮演非常重要的角色。比如6G網路與衛星網路的連接協議(Protocol),許多都會使用AI技術。此外,在能源網路(Energy Network)、醫療(Healthcare)、金融(Finance)以及工業化(Industrialization)等領域,AI都能成為關鍵組成部分(Key Component)。因為模型已經縮小到足夠輕量,它可以直接部署在AI伺服器(AI Server)上。過去,很多應用因為與資料(Data)的敏感性關係,可能不敢上雲端運算。
舉個例子來說,像台積電(TSMC)這樣的企業,其製程參數(Process Parameters)極其重要且敏感。如果將這些資料上傳到雲端,可能會有洩露風險。同樣地,聯發科(MediaTek)的IC設計(Integrated Circuit Design)也很關鍵,不能隨意上雲端。但現在,因為這些小型模型的能力已經足夠強大,甚至超越了過去雲端模型的水準,我們可以將它們縮減後在本地端(On-Premise)運行。這就形成了一個全新的應用模式。不僅限於製造業,像醫療、研究、法律(例如羅夫人的案例)、銷售等領域,以前無法上雲的應用,現在都能在本地端實現。更重要的是,它還能進一步向下延伸,涵蓋整個邊緣設備(Edge Devices)的範疇,從手機、電腦、車用系統到機器人(Robotics),全都適用。

這一點尤其重要,對我們來說可能是更關鍵的部分。接下來我們來看一篇文章,這是去年9月《經濟學人》(The Economist)的一篇報導,細節我就不多說了。文章主要提到,未來半導體AI需求的預估中,大約只有15%是用於AI訓練(Training),而有將近85%是用於端側應用(Edge Applications)。這包括幾個層面:第一,當全球數十億人開始使用AI時,需求量會非常龐大;第二,像剛才提到的Grok或特斯拉(Tesla)的應用場景,也會進一步推高需求。因此,85%的應用集中在推理(Inference)層面,其中大約45%部署在資料中心(Data Center),而40%則用於邊緣設備。

在這個時候,我想先來談談半導體(Semiconductor)的角色。根據剛剛提到的數據,到了2028年左右,半導體市場預計將達到一兆美元的規模(僅資料中心那60%),這真的是非常驚人的數字。回顧剛剛我們看到的圖表,左邊的部分是訓練(Training),占了15%,而右邊的部分是推論(Inference),占了85%。其中,資料中心(Data Center)推論占了45%,邊緣設備(Edge Device)推論則占了40%。這也顯示出,像台積電(TSMC)這樣的半導體製造商,在這個階段的重要性非常高。因為資料中心的推論需要大量的運算能力和高效能晶片,而邊緣設備則需要低功耗、高效率的設計來滿足各種應用場景。
接下來,我們來看看AI未來的發展方向。這裡有一張來自摩根士丹利(Morgan Stanley)的圖表,我覺得非常有參考價值,所以特別引用來跟大家分享。當我們談論AI時,常常會從知識經濟的角度切入,像是如何提升效率、解決問題等等。但在未來,AI要真正進入各行各業,融入所有的應用程式,並進入實體經濟(Physical Economy)的話,就會與一些實際的技術和硬體密切相關,比如ATM(Automated Teller Machine)相關的技術,或者更廣泛來說,是與感測器(Sensor)技術的結合。特別是像視覺(Vision)相關的技術,比如光學感測(Photo-related Sensors),這些在短期內會是AI能力提升的重要方向。而接下來,像Facebook AI這樣的技術,也會逐漸朝實體經濟的方向發展。

在這個過程中,我想先聚焦在一個重要的概念——AI代理人(AI Agents)。AI代理人的運作方式是什麼呢?我們可以這樣思考:當你希望AI幫你完成一件事時,如果只是單純依靠一個語言模型(Language Model, LM),進行快速問答(Fast Q&A),效果往往不夠好。我舉個例子來說明:假設你對AI說,「我現在想去歐洲玩,幫我規劃一個行程。」如果只是快速問答,AI可能會直接給你一個套裝行程,但這可能不是你想要的。
事實上,如果要讓AI更全面地完成任務,應該讓不同的角色來協同工作。舉例來說,你可以有一個協調者(Coordinator),這個協調者會將任務分配給不同的模型(Models)。比如說,它可能會指派一個模型負責找便宜又好的機票,另一個模型負責找住宿,還有一個模型負責推薦旅遊景點。這些不同的資訊收集完之後,協調者會把結果整合起來。但除了分工之外,還需要一個優化評估者(Optimizer/Evaluator)。為什麼呢?因為當所有資訊整合在一起後,可能會發現問題。比如,評估者可能會說:「這個機票太貴了,現在只有頭等艙,超出我們的預算。」或者,「這個住宿地點不合適,條件不符合需求。」
更重要的是,在整個過程中,AI必須與外部環境不斷進行迭代(Iteration)。舉個例子,你規劃好行程後,真的去訂機票時,發現機票已經賣完了;或者訂旅館時,發現那個地方已經客滿。這種情況下,AI代理人需要重新調整計畫,才能真正給你一個可行的方案。所以,AI代理人的角色,並不是單純讓一個語言模型(LM)來主導,而是讓它成為其中的一個角色,與其他角色協作。
最近在AI代理人的發展中,有一個很重要的趨勢,就是語言模型(LM)需要具備自己的記憶(Memory)。這就像是讓AI能夠記住之前的對話或任務細節,來更好地完成工作。此外,在工具(Tools)的使用上,也有一個很熱門的技術,叫做模型上下文協議(Model Context Protocol, MCP)。這是什麼意思呢?過去,當AI需要使用外部工具時,比如用電子郵件(Email)聯繫、用Google地圖(Google Maps)找地點,或者處理其他服務(Services),每種工具的API(Application Programming Interface)都有自己的連接方式,就像每把鎖都需要不同的鑰匙一樣,非常麻煩。

但如果有一個主控系統(Master System)需要與各種工具連接,這樣的做法就顯得很困難。所以,最好的方法是像現在的USB標準一樣,制定一個統一的介面(Standard Interface),讓所有工具都能輕鬆連接起來。這就是MCP的主要功能——為外部工具的使用提供一個標準化的連接介面(Standardized Interface)。具體的細節我就不多說了,但簡單來說,它有點像是Client-Server架構,透過一個標準的溝通介面,讓各種工具可以順利運作。

有了這樣的工具和技術支持,我認為像NVIDIA這樣的企業,在AI架構(AI Architecture)上的發展就更值得我們參考。NVIDIA常常提到一個概念:未來可能會有數百萬個AI員工(AI Employees)。這是什麼意思呢?我舉個例子來說明。假設你現在需要一個程式設計師,你覺得一個程式設計師的基本能力然不是。
總結來說,AI的未來發展,不僅僅是提升運算能力,還需要更智能的協作模式,以及與實體經濟的深度結合。像台積電這樣的企業,在提供高效能、低功耗的晶片上,將扮演非常關鍵的角色。而AI代理人、標準化工具介面等技術的進展,也會讓AI更有效地融入我們的生活和工作中。
其實不是這樣的。如果我們以程式設計師(Programmer)為例,單純具備寫程式(Coding)的能力就夠了嗎?當然不夠。假設一個程式設計師對資訊安全(Information Security)完全沒有概念,別人隨便套個話,他就把自己正在開發的專案機密(Project Secrets)全部說出來,這顯然是不行的。所以,一個合格的員工,無論是人類還是AI,事實上需要具備多方面的基本能力。
這些能力可以分成三層。最底層是基礎能力(Basic Abilities),包括理解推理(Understanding and Reasoning)、資訊獲取(Information Retrieval)、安全防護(Security Protection)等等。對人類來說,這就像是個人的特質以及各種基本技能的組合。這些基礎能力往上發展,就會形成不同的角色(Roles)。比如說,有創作者(Creator)的角色,像程式設計師(Programmer)本身就是一種創作者,負責創作軟體(Software);IC設計者(IC Designer)則是創作積體電路(Integrated Circuit, IC)的人。此外,還有像美工設計師(Graphic Designer)這樣的創作者角色,負責設計使用者介面(User Interface, UI)。
另外,也可能有客製化者(Customizer)的角色,根據客戶的需求來組合所需的軟體功能(Software Features);還有評估者(Evaluator),就像專案經理(Project Manager)一樣,負責評估程式碼的品質(Code Quality)或功能是否符合需求;守護者(Guardian)則負責與資訊安全相關的部分,比如防止資料外洩(Data Breach);還有檢索者(Retriever),專門處理資料的搜尋(Data Search)。特別是在未來,資料搜尋(Data Search)的方式可能會與過去有所不同。過去我們進行資料搜尋時,像是使用C語言函式庫(C Library)之類的工具,通常需要先將資料分門別類整理好,才能進行存取(Access)。但在未來,對於非結構化資料(Unstructured Data),我們可以用類似語言模型(Language Model, LM)的方法來進行搜尋,並將這些能力整合起來,最終形成一個完整的AI代理人(AI Agent)。
接下來,有人可能會問,這些AI代理人可以如何應用?舉個例子,假設有一個名叫安迪(Andy)的AI代理人,專門負責程式設計(Programming)。它可能同時扮演守護者的角色,確保程式碼的安全性(Code Security),比如檢查是否有漏洞(Vulnerabilities)或潛在的資安風險(Security Risks)。透過這種方式,我們可以打造一個A95架構(A95 Architecture),讓AI的能力不斷提升。
更進一步來說,接下來我們要談的是實體AI(Physical AI)。實體AI的關鍵在哪裡呢?從技術角度來看,目前的AI發展是這樣的:我們給AI一個像大腦一樣的系統,提供各種資料(Data),包括影像(Images),讓它從中學習我們的世界。但這樣還不夠。為了讓AI更貼近現實,我們需要讓它在模擬環境(Simulated Environment)中進行訓練。舉個例子,像自動駕駛車(Self-Driving Car)這樣的應用,就需要在模擬環境中模擬各種場景。
然而,僅靠模擬環境還是不夠的,因為有些場景無法完全模擬出來。這時候,我們就需要使用合成資料(Synthetic Data)來製造特定的環境。比如說,我們可能已經收集了台灣的環境資料、美國的環境資料,但如果自動駕駛車要在美國行駛,卻需要應對下雪的場景(Snowy Scenario),而我們手上的資料不足以模擬這種情況。這時就需要透過合成資料來生成下雪的場景,來進行訓練。
但即使如此,這樣的訓練方式仍然有其侷限性。從哲學的角度來看,這種AI就像是「罐中之腦」(Brain in a Vat)。這是一個思想實驗(Thought Experiment),意思是說,這個AI就像一個被放在罐子裡的大腦,所有的輸入(Input)和輸出(Output)都透過一個介面(Interface)來進行,它所學到的東西、看到的世界,都是外界給予的。但不管是像微信(WeChat)還是其他對話系統(Dialogue Systems),它們都有一個共同特點:它們的知識基礎(Knowledge Base)是建立在目前人類已知的知識之上。
舉個例子來說,即使我們為自動駕駛車模擬了下雪環境、沙漠環境(Desert Environment),但現實世界總有無法預測的突發狀況。就像前幾天的新聞報導,在韓國有一輛車正在行駛時,前面突然出現一個天坑(Sinkhole),車子直接掉了下去。像這樣的真實世界突發狀況(Real-World Incidents),你永遠無法窮舉所有的可能性。
所以,最好的方法是讓AI與真實世界(Real World)進行互動。比如說,讓一個機器人(Robot)與人類互動,它就能從中學習更多東西。包括我們現在對物理世界(Physical World)的理解,比如物體的運動(Object Motion)。如果我們單純用生成工具(Generative Tools)來模擬,像是用SOLO之類的技術生成的畫面,可能會出現不自然的結果,比如物體運動的方式與我們的預期不符。這是因為AI觀察到的物體運動數據還不夠多。但如果讓它在真實世界中進行實驗,或者與人類對話互動,它就能學到更多東西。

因此,實體AI(Physical AI)可以讓AI的能力進一步提升。而在能力提升的過程中,未來的應用場景將不僅限於機器人(Robots)。比如說,自動駕駛車(Self-Driving Cars)、垂直起降載具(Vertical Take-Off and Landing Vehicles, VTOL)都是可能的應用。舉個例子,假設我們要去機場,但地面交通塞車(Traffic Jam),我們可以搭乘像無人機(Drone)一樣的垂直起降載具,直接飛到機場。還有像四足機器人(Quadruped Robots)或人形機器人(Humanoid Robots),這些都是AI與機器人技術結合的新方向,能夠處理更複雜的任務。
這部分在現在越來越重要。根據我看到的統計數據,到了2024年,全球已經有五十多個人形機器人(Humanoid Robots)項目在開發中。為了更清楚地了解這方面的進展,我們可以用波士頓動力(Boston Dynamics)的例子來看差距在哪裡。
我們先回顧一下7~8年前的狀況,以及現在的狀況,然後再來分析差距。7~8年前的狀況是什麼呢?讓我們看一下當時的機器人技術。當時的機器人可能連基本的動作都做不到。而到了7年前,波士頓動力的機器人已經可以做到跳躍(Jump)和後空翻(Backflip),這已經是非常驚人的進展了。再來看看現在的狀況。現在的機器人可以執行各種動作,甚至可以像士兵一樣進行訓練。比如說,讓它匍匐前進(Crawl),模擬在炮火(Gunfire)下的場景,這樣的技術已經非常成熟。
我們剛剛提到波士頓動力(Boston Dynamics)的機器人技術進展,現在讓我們來看另一個例子。這個機器人可以做到掃堂腿(Sweeping Leg Kick)、翻滾(Roll)等動作,靈活度(Dexterity)比過去高出非常多。我為什麼要給大家看這個?其實有幾個關鍵原因。
首先,我們來比較一下七八年前和現在的差異。七八年前,波士頓動力的機器人雖然已經能做到後空翻(Backflip)和前空翻(Frontflip)這樣的動作,但問題在於當時的技術有很大的限制。那時候的機器人使用的是液壓動力(Hydraulic Power),它的背後有一個像是泵浦(Pump)一樣的部件,專門提供動力。液壓動力的特點是力量有限,所以當它要做前空翻或後空翻時,必須站在一個高台上(Platform),利用高度來補足力量,才能完成這些動作。
但現在,像波士頓動力的Atlas(艾塔斯)機器人已經可以做到跑步(Running)、步行(Walking)、翻滾(Rolling)等各種動作,各方面的表現都非常出色。這其實代表了這段時間技術的綜合進步(Comprehensive Progress)。其中一個重要的原因是電動車(Electric Vehicle)技術的進步,讓馬達(Motor)的力量大幅提升。更重要的是,機器人內部的齒輪(Gears)和其他機械結構(Mechanical Components)也得到了改進,讓它的靈活性和自由度(Degrees of Freedom, DOF)大幅提高。現在的Atlas已經達到了四五十個自由度,這是非常驚人的。
在這樣的基礎上,再搭配AI技術,機器人的能力又更進了一步。就在一兩個星期前,Google展示了一項技術,利用變形金剛模型(Transformer Model)來控制機器人。過去,機器人的動作控制(Motion Control)需要人類手動教導(Manual Teaching),但現在可以讓機器人自動學習(Autonomous Learning)。我們來看一個例子。
講者6:
在機器人學(Robotics)領域中,高靈活度(High Dexterity)一直是最大的挑戰之一。我可以做到像摺紙(Origami)這樣的任務。
講者5:
對,你可以叫它去摺紙。
講者7:
聽起來真有趣!我們何不試試看?
講者8:

當然可以。你知道嗎?「摺紙」(Origami)這個詞來自日文,「ori」意思是摺疊(Fold),「kami」意思是紙(Paper)。
講者6:
這些能力是由Gemini 2(雙子座2)技術所實現的。它具備對環境中細節的空間理解(Spatial Understanding),例如它能判斷時鐘上應該畫眼睛的位置。更重要的是,Gemini Robotics是通用的(General),它使用了Gemini 2.0的世界模型(World Model)來理解環境。
講者5:
舉個例子來說明好不好?假設我們現在要求它把紅色的骰子(Red Die)翻轉,讓數字朝上,它可以自己做判斷(Reasoning)並完成任務。
講者6:
沒錯吧?它不僅能理解它看到的東西(Visual Perception),還能推理如何移動(Motion Reasoning)。它會自己想辦法讓紅色骰子的數字朝上,就像我們要求的那樣。這種泛化能力(Generalization)甚至可以更進一步。
由於時間關係,我們就不把整個展示看完。但從這個例子中,你可以看到為什麼需要這樣的技術。讓我們來想一想,一個人形機器人(Humanoid Robot)有四五十個關節(Joints),每個關節都是一個自由度(Degree of Freedom, DOF)。你可以想像,我們研究自動駕駛車(Self-Driving Car)已經很久了,而自動駕駛車基本上只有方向盤(Steering Wheel)、油門(Accelerator)和剎車(Brake)這三個主要的自由度(DOFs)。我們花了十幾二十年,仍然很難做到完全控制(Full Control)。但一個機器人有四五十個自由度,未來需要各種不同的AI,甚至是分散式AI(Distributed AI)來協同工作,才能完成複雜的任務。
在這樣的應用場景中,像特斯拉(Tesla)就預估,今年可能會有幾千台Optimus(特斯拉的人形機器人)投入使用。未來,這些人形機器人的數量甚至可能超過人類。這也呼應了我們之前提到的,AI晶片市場(AI Chip Market)在推論(Inference)階段的需求,特別是在邊緣設備(Edge Device)上的應用。這些機器人需要在真實世界中高效運作,這對硬體和軟體的協同設計(Hardware/Software Co-design)提出了更高的要求。
從技術角度來看,這是完全可能的。為什麼呢?因為我們可以想想一個實際的場景:如果我們想要去火星(Mars),第一批負責建造基地(Base Construction)的是誰?是用人類送去火星,還是用機器人(Robots)送去火星比較合適?答案顯然是機器人。因為機器人可以在極端環境(Extreme Environment)中工作,不需要像人類一樣考慮生存條件。更重要的是,當機器人先到達火星並建造好基地後,接下來真正的人類抵達時,所有的介面(Interfaces)都已經準備好了,人類可以立刻接手使用,無縫銜接。
在這個過程中,我們可以看到,機器人的應用不僅僅局限於建造基地,還包括各種物理探索(Physical Exploration)和設計自動化(Design Automation)。比如說,在設計積體電路(Integrated Circuit, IC)時,AI可以讓整個設計流程更加自動化,這是未來的關鍵方向。所以,未來AI的發展將涵蓋整個領域(Domain),特別是在大型經濟(Large Economy)和實體經濟(Physical Economy)中,會有各種不同的應用場景。

在這些場景中,目前的語言模型(Language Model, LM),比如像ChatGPT這樣的模型,只是其中的一個組成部分(Component),也只是一個起點(Starting Point)。未來,AI將會在三維環境(3D Environment)中繼續發展,特別是實體AI(Physical AI)的部分。更重要的是,當AI能夠真正接觸到真實世界(Real World)時,它甚至可以自己設計實驗(Design Experiments),從而獲得更好的效果。說不定未來,諾貝爾獎(Nobel Prize)也可能由AI來獲得!
所以,從現在的發展來看,從預訓練(Pre-train)到AI代理(Agentic AI)的話,未來可能會有更多的實體AI(Physical AI)加入,並在現有基礎上進一步疊加(Stack)AI能力。接下來,系統化知識創造(Systematic Knowledge Creation)也會疊加在實體AI之上。在這部分,我特別想提到一些時代背景(Era Context)。一個關鍵點在於,系統化知識的創造必須非常依賴實體AI,這是真實世界的需求。如果我們只是用虛擬環境(Virtual Environment)來訓練AI,你會發現我們會先對虛擬環境的真實性產生懷疑。但如果AI能與真實世界互動(Interact with Real World),它才有可能創造出真正的新知識(New Knowledge)。

目前,我們大概還處於這個階段(Early Stage),未來還有很長的路要走。接下來,我想簡單講一下AI發展的階段(Stages of AI Development),我們可以從網際網路(Internet)的發展來做一個對比,看看其中的差距在哪裡。

網際網路的發展一開始是從賣工具(Selling Tools)開始的,比如早期的網際網路硬體(Internet Hardware)。那時候的使用者(Users)大概不到3億人。到了2000年,網際網路泡沫(Internet Bubble)爆發,為什麼會爆發呢?因為當時很多人拼命投資(Overinvestment),但這些投資未必能產生收入(Revenue)。後來,網際網路之所以能崛起,是因為進入了第二階段(Second Stage)。這時候,像Google、Facebook、Amazon這樣的企業發現了一個新的商業模式(Business Model):他們不向使用者收費(Free for Users),而是讓使用者免費使用服務,然後由廣告商(Advertisers)來付費。這個模式成功後,網際網路開始蓬勃發展,Google、Facebook等公司也因此崛起。
更重要的是,到了2007年,智慧型手機(Smartphone)的出現讓使用者數量大幅增長。那時候的使用者大概有11億,但主要集中在富裕國家(Developed Countries)。到了2018年之後,大量新興市場(Emerging Markets)的使用者加入,特別是一些發展中國家(Developing Countries),比如非洲(Africa)地區,讓使用者數量增加到33億左右,實現了真正的普及(Mass Adoption)。最終,隨著資料運算(Data Computing)和演算法(Algorithms)的進步,網際網路與AI產生了協同效應(Synergy),進入了第四階段(Fourth Stage)。

現在,我們再來看AI的發展階段。目前,AI大概還處於第一階段(First Stage)。我們還在賣GPU(Graphics Processing Unit),專注於硬體的產值(Hardware Value)。以ChatGPT為例,根據目前的數據,ChatGPT每周的使用者(Weekly Users)大約有2億人,每天使用的人數(Daily Users)大概是5500萬。其他像第四大模型(Fourth Major Model)每天的使用者大約有2000多萬,字節跳動(ByteDance)的產品則有1000多萬使用者。所以,我們目前還處於這個階段(Early Adoption Stage)。接下來,我們要如何引導AI進入下一個階段,這是一個關鍵問題。

在整個AI發展的過程中,我們的重點應該是如何提升生產力(Productivity)。這也是我今天要講的最後一頁。事實上,在AI時代(AI Era),最重要的事情是人才(Talent)。我們之前提到,AI晶片市場(AI Chip Market)在推論(Inference)階段的需求非常大,特別是在資料中心(Data Center)和邊緣設備(Edge Device)上的應用。但即使硬體再稀缺(Scarce),或者AI的普遍應用(Widespread Adoption)再稀缺,這些問題正在慢慢被補上(Being Addressed)。真正的關鍵在於,如何讓人才跟上AI發展的步伐。

特別是第四個關鍵點(Fourth Key Point):真正的人才在於能夠有效訓練AI大模型(Large-Scale Model Training)的人才,這些人才正在逐漸出現。在台灣(Taiwan)的話,像AI演算法、設計(Design)、製程(Manufacturing Process),以及如何將AI有效應用到各種場景(Applications),比如百工百業等領域,來提升生產力(Productivity),這才是最重要的關鍵。
今天就先講到這裡,謝謝大家!
利用grok針對投影片及網路資訊做補充
投影片解讀

標題:台灣在AI時代 急需解決的瓶頸點:人才
投影片的主題聚焦於台灣在AI時代發展中所面臨的人才瓶頸,並強調解決這一問題的重要性。
核心內容:AI發展,就如同淘金一樣
投影片以「淘金」(Gold Rush)作為比喻,來描述AI發展的現況。就像淘金時代一樣,AI產業的發展需要大量的基礎工作者(淘金者)來支撐,而這些基礎工作者在AI領域中就是「簡單應用AI人才」。
結構:兩大主軸
投影片將內容分為兩大主軸:「簡單應用AI人才」和「高階AI人才」。
1.簡單應用AI人才
定義:投影片提到,這類人才是指「最稀缺的不是鑽子(專家),是基礎工程(簡單應用AI人才)」。
* 解讀:這裡指的是AI產業中最需要的不是頂尖專家(例如AI研究員或博士級人才),而是能夠執行基礎AI應用的技術人員。這些人可能不具備深厚的理論知識,但能將AI工具應用到實際工作中。
* 需求:
1.設計基礎技能相關的人才:例如能夠使用AI工具進行簡單的資料分析(Data Analysis)、模型部署(Model Deployment)或流程自動化(Process Automation)的人才。
2.設計基礎中學基礎教育的AI人才:指的是需要在中學教育階段就開始培養AI基礎知識,例如程式設計(Programming)、資料處理(Data Processing)等技能。
3.讓企業全面正視對AI人才的需求:企業需要意識到AI應用的重要性,並積極培養或招聘這類基礎AI人才。
補充解讀:這部分強調了AI普及化的重要性。就像淘金時代需要大量勞動力來挖掘金礦,AI時代需要大量能夠應用AI工具的基礎人才來推動產業發展。
2.高階AI人才
* 定義:投影片提到,這類人才包括:
1.**IC設計、AI演算法軟硬體開發高階設計人才**:指的是能夠設計AI晶片(IC Design)、開發AI演算法(AI Algorithms)以及進行軟硬體整合(Hardware-Software Integration)的高階技術人才。
2.**類似創辦人、資深工程師能用AI產生動力的人才**:指的是具備領導能力、能夠將AI技術轉化為商業價值(Business Value)的人才,例如AI創業家(AI Entrepreneurs)或資深工程師(Senior Engineers)。
3.**高深應用AI、能真正改變AI並創造新成長的人才**:指的是能夠推動AI技術突破、創造新應用場景(New Applications)的高階人才,例如AI研究員(AI Researchers)或技術創新者(Innovators)。
補充解讀:這部分強調了高階AI人才在技術創新和產業領導中的關鍵角色。他們不僅能應用AI,還能推動AI技術的進步,創造新的商業模式或應用場景。
關鍵觀點
* 成功力只能在基礎建設:投影片提到,「愛要用對、要用AI用人,要以後在基礎建設」,強調基礎建設(Infrastructure)的重要性。
解讀:這裡指的是,AI的成功不僅依賴高階人才,更需要大量的基礎AI人才作為支撐。基礎建設包括教育體系(Education System)、企業應用(Enterprise Adoption)和人才培養(Talent Development)。
* 價值正視(高階AI人才)是世界上的需求,應要高倍成長:高階AI人才的需求是全球性的,台灣需要加速培養這類人才,以滿足未來的成長需求。
來源
* 投影片由「Bor-Sung Liang, MediaTek」提供,顯示其來自聯發科(MediaTek),一家台灣知名的半導體公司。
根據網路可得資訊補充
為了更全面地解讀投影片,我根據網路可得資訊補充了以下內容,特別聚焦於台灣AI人才現況、聯發科的角色,以及全球AI人才需求的背景。
1. 台灣AI人才現況
根據公開資訊,台灣在AI發展上面臨以下挑戰:
* 基礎AI人才短缺:根據《數位時代》(2023年報導),台灣的AI人才供給遠遠跟不上需求。許多企業表示,雖然台灣有優秀的半導體和硬體製造能力,但在AI應用層面(例如資料科學、機器學習工程)的人才仍然不足。投影片提到的「簡單應用AI人才」正是這一問題的反映。
* 教育體系的挑戰:台灣的AI教育起步較晚,雖然近年來許多大學(如台大、清大)開設了AI相關課程,但中學教育(Secondary Education)中對AI基礎知識的普及仍不足。投影片提到的「設計基礎中學基礎教育的AI人才」呼應了這一需求。
* 企業應用不足:根據《經濟日報》(2024年報導),台灣中小企業(SMEs)在AI應用上的普及率仍然較低,許多企業缺乏能夠將AI工具整合到業務中的基礎人才。這與投影片中「讓企業全面正視對AI人才的需求」相呼應。
2. 聯發科(MediaTek)在AI發展中的角色
投影片由聯發科提供,顯示其對AI人才議題的重視。根據網路資訊:
* 聯發科的AI布局:聯發科是全球領先的半導體公司之一,特別在行動處理器(Mobile Processors)和AI晶片(AI Chips)領域有顯著貢獻。根據聯發科官網(截至2024年),其AI晶片已廣泛應用於智慧手機(Smartphones)、物聯網設備(IoT Devices)和邊緣運算(Edge Computing)。投影片中提到的「IC設計、AI演算法軟硬體開發高階設計人才」正是聯發科目前急需的人才類型。
* 人才培育計畫:聯發科近年來積極參與AI人才培育,例如與台灣多所大學合作,設立AI相關獎學金(Scholarships)和實習計畫(Internship Programs)。此外,聯發科也推出「MediaTek AI Academy」,提供AI技術培訓課程,旨在培養更多基礎和高階AI人才。這與投影片中提到的「基礎建設」和「高階AI人才」需求相呼應。
3. 全球AI人才需求背景
投影片提到「高階AI人才是世界上的需求」,這一點可以從全球趨勢中得到驗證:
* 全球AI人才短缺:根據《World Economic Forum》(2023年報導),全球AI人才需求在過去五年增長了3倍,但供給僅增長了1.5倍。特別是高階AI人才(如AI研究員、機器學習工程師)在美國、中國和歐洲等地都極為稀缺。
* 高倍成長需求:根據《McKinsey Global Institute》(2024年報告),預計到2030年,全球對高階AI人才的需求將增長5倍以上,特別是在生成式AI(Generative AI)、實體AI(Physical AI)和自動化(Automation)領域。投影片中提到的「高倍成長」與此趨勢一致。
* 台灣的競爭優勢與挑戰:台灣在半導體製造(Semiconductor Manufacturing)和硬體設計(Hardware Design)方面有全球競爭優勢,例如台積電(TSMC)和聯發科的領先地位。但在AI軟體(Software)和應用層面,台灣仍需加速培養人才,以避免在全球競爭中落後。
4. 與前述演講內容的連結
* 實體AI(Physical AI)與人才需求:前述演講中提到實體AI的發展(如自動駕駛車、人形機器人),這需要大量的IC設計和軟硬體整合人才,與投影片中「高階AI人才」的定義相符。
* 基礎應用與普及:演講中提到AI發展的第一階段(賣GPU、基礎應用),這與投影片中「簡單應用AI人才」的需求相呼應。台灣需要更多能夠應用AI工具的人才來推動產業普及。
* 人才培育的急迫性:演講結尾提到「AI時代最重要的是人才」,並強調有效訓練AI大模型的人才正在出現,這與投影片中「基礎建設」和「高階AI人才」的觀點一致。
補充後的總結
投影片「台灣在AI時代 急需解決的瓶頸點:人才」以「淘金」比喻,點出了AI發展中人才的重要性,並將人才分為「簡單應用AI人才」和「高階AI人才」兩大類。簡單應用AI人才負責基礎應用,是AI普及的關鍵;高階AI人才則負責技術創新和產業領導,是全球競爭的核心。
結合網路資訊,台灣在AI人才培育上面臨基礎教育不足、企業應用普及率低等挑戰,但也具備半導體製造的優勢。聯發科作為投影片的提供者,積極參與AI晶片開發和人才培育,顯示其對這一議題的重視。全球趨勢則表明,AI人才需求正在快速增長,特別是高階AI人才,台灣需要加速培養這兩類人才,以在AI時代保持競爭力。
與前述演講內容相呼應,實體AI的發展需要大量高階AI人才,而AI應用的普及則需要更多基礎AI人才。台灣若能透過教育改革(Education Reform)、企業合作(Industry Collaboration)和政策支持(Policy Support),加速人才培育,將有機會在全球AI競賽中脫穎而出。
投影片解讀

標題:人工智慧AI 科技發展軌跡(目前仍為第一階段)
投影片的主題是描述AI科技發展的軌跡,並指出目前AI仍處於第一階段(First Stage)。投影片以「淘金」(Gold Rush)作為比喻,來類比AI發展的階段,並提出未來可能的方向和挑戰。
核心內容:AI發展分為四個階段
投影片將AI的發展分為四個階段,並以箭頭表示時間進展和階段轉換:
1.第一階段:淘金階段(AI淘金 Gold Rush)
* **時間點**:2017年(AI淘金工具)至2022/11(ChatGPT 100M)及2023/2(ChatGPT 2億)。
* 特徵:這一階段的AI發展以硬體工具(Hardware Tools)為主,例如GPU(Graphics Processing Unit)、TPU(Tensor Processing Unit)、APU(Accelerated Processing Unit)等。
* 數據:
ChatGPT在2022年11月達到1億使用者(100M Users)。
2023年2月,ChatGPT達到2億使用者(200M Users)。
每日活躍使用者(Daily Active Users, DAU):
ChatGPT:5320萬。
第四大模型(Fourth Major Model):2000多萬。
字節跳動(ByteDance):1000多萬。
解讀:這一階段類比於淘金時代的「賣工具」(Selling Tools),AI產業的重點在於提供硬體基礎設施(Infrastructure),例如高效能運算晶片(High-Performance Chips)。ChatGPT的快速成長顯示了生成式AI(Generative AI)的普及,但整體仍處於基礎建設階段。
2.第二階段:簡單模式發展(針對生產力)
時間點:未知(?)。
特徵:
產業的商業模式(Business Model)可能會改變。
知識使用者(Knowledge Users)可能會增加生產力(Productivity)。
問題:
知識使用者如何增加生產力?
知識使用者是否能直接影響商業模式?
解讀:這一階段類比於網際網路(Internet)發展的第二階段,當時像Google、Facebook等公司透過廣告模式(Advertising Model)實現商業化。AI在這一階段可能會找到類似的商業模式,例如透過AI工具提升企業效率(Enterprise Efficiency)或創造新的收入來源(Revenue Streams)。
3.第三階段:技術普及成長(3年後應用量)
時間點:未知(?)。
特徵:
AI技術普及(Technology Adoption)將顯著成長。
人工智慧應用(AI Applications)可能在3年後達到高峰。
問題:
AI技術普及成長如何實現?
人工智慧應用是否能真正改變使用內涵(User Experience)?
解讀:這一階段類比於網際網路普及階段(Mass Adoption),例如智慧型手機(Smartphone)普及後,使用者數量從11億增長到33億。AI在這一階段可能會進入更多產業(Industries)和應用場景(Use Cases),例如醫療(Healthcare)、教育(Education)和製造業(Manufacturing)。
4.第四階段:技術融合 啟動新奇商業應用(協同作用)
時間點:未知(?)。
特徵:
人工智慧需要技術成熟(Technology Maturity)。
管理界用權重的創新能力(Innovation Capability)將成為關鍵。
問題:
技術成熟後,AI是否等於A++?
管理界用權重是否能引發下一波成長?
解讀:這一階段類比於網際網路的第四階段,當時資料運算(Data Computing)和演算法(Algorithms)與網際網路技術結合,催生了AI的發展。AI在這一階段可能會與其他技術(如物聯網IoT、區塊鏈Blockchain)融合,創造新的商業應用(New Business Applications)。
關鍵觀點
目前仍為第一階段(目前AI發展的現況位置):投影片強調,AI目前仍處於第一階段,類似於淘金時代的「賣工具」階段,專注於硬體和基礎建設。
未來挑戰:投影片提出了一系列問題,顯示AI發展的未來充滿不確定性,例如商業模式的改變、技術普及的實現,以及管理層如何利用AI創造新價值。
來源
投影片由「Bor-Sung Liang, MediaTek」提供,顯示其來自聯發科(MediaTek),一家台灣知名的半導體公司。
根據網路可得資訊補充
為了更全面地解讀投影片,我根據網路可得資訊補充了以下內容,特別聚焦於AI發展階段、聯發科的角色,以及全球AI趨勢的背景。
1. AI發展階段的全球背景
投影片將AI發展分為四個階段,這與全球AI趨勢有一定的對應:
* 第一階段(淘金階段):
硬體主導:根據《Gartner》(2023年報導),AI硬體市場(AI Hardware Market)在過去五年快速增長,特別是GPU和TPU的需求。NVIDIA、Google(TPU)和AMD(APU)是這一階段的主要玩家。投影片提到的「賣工具」與此相符。
ChatGPT的影響:投影片提到ChatGPT在2022年11月達到1億使用者,2023年2月達到2億使用者。根據《Statista》(2023年數據),ChatGPT的快速成長標誌著生成式AI(Generative AI)的普及,成為AI第一階段的重要里程碑。
使用者數據:投影片提到ChatGPT的每日活躍使用者為5320萬,這與公開數據一致。字節跳動(ByteDance)的AI產品(如抖音的推薦系統)也有顯著的使用者基礎,顯示AI應用的初步普及。
* 第二階段(簡單模式發展):
商業模式轉型:根據《McKinsey Global Institute》(2024年報告),AI的商業模式正在從硬體銷售(Hardware Sales)轉向服務模式(Service Models),例如AI即服務(AI-as-a-Service, AIaaS)。這可能與投影片中提到的「知識使用者增加生產力」有關。
生產力提升:根據《Forbes》(2024年報導),AI工具(如自動化流程、資料分析)已幫助企業提升20%-30%的生產力,特別是在金融(Finance)和零售(Retail)領域。
* 第三階段(技術普及成長):
普及挑戰:根據《World Economic Forum》(2023年報導),AI技術的普及仍面臨挑戰,包括基礎設施不足(Infrastructure Gaps)、人才短缺(Talent Shortage)和法規限制(Regulatory Barriers)。投影片提到的「AI技術普及成長如何實現?」呼應了這些挑戰。
應用場景:根據《IDC》(2024年預測),AI應用在未來三年內將在醫療(AI Diagnostics)、教育(Personalized Learning)和製造業(Smart Manufacturing)中快速增長,這與投影片中「人工智慧應用是否能真正改變使用內涵?」的問題相呼應。
* 第四階段(技術融合):
技術融合趨勢:根據《MIT Technology Review》(2024年報導),AI正在與其他技術融合,例如AI與物聯網(AI + IoT)創造智慧城市(Smart Cities),AI與區塊鏈(AI + Blockchain)提升資料安全(Data Security)。投影片提到的「協同作用」與此趨勢一致。
管理層角色:根據《Harvard Business Review》(2024年文章),管理層需要具備創新能力(Innovation Capability),以利用AI創造新價值,例如開發新的商業模式(New Business Models)或優化供應鏈(Supply Chain Optimization)。
2. 聯發科(MediaTek)在AI發展中的角色
投影片由聯發科提供,顯示其對AI發展階段的關注。根據網路資訊:
* 聯發科的AI硬體貢獻:聯發科在第一階段(淘金階段)扮演了重要角色,其AI晶片(AI Chips)廣泛應用於智慧手機(Smartphones)和邊緣設備(Edge Devices)。根據聯發科官網(截至2024年),其NeuroPilot AI平台支援高效能運算(High-Performance Computing),與投影片中提到的GPU、TPU等硬體趨勢相符。
* 未來布局:聯發科正在積極布局第二階段和第三階段,例如開發AI軟硬體整合解決方案(Hardware-Software Integration Solutions),以提升生產力(Productivity)和技術普及(Technology Adoption)。這與投影片中提到的「簡單模式發展」和「技術普及成長」相呼應。
3. 與前述演講內容的連結
* 第一階段的驗證:前述演講中提到,AI目前仍處於第一階段(賣GPU、基礎應用),這與投影片的觀點一致。演講中提到的ChatGPT每日活躍使用者(5500萬)與投影片數據(5320萬)接近,顯示了生成式AI的初步普及。
* 未來階段的展望:演講中提到AI的第二階段可能涉及商業模式改變(例如知識使用者增加生產力),這與投影片的第二階段觀點相符。第三階段和第四階段的技術普及與技術融合,也與演講中提到的實體AI(Physical AI)和系統化知識創造(Systematic Knowledge Creation)相呼應。
* 人才需求:投影片提到AI發展需要大量基礎人才(簡單應用AI人才)和高階人才(高階AI人才),這與演講結尾強調的「AI時代最重要的是人才」一致。
補充後的總結
投影片「人工智慧AI 科技發展軌跡(目前仍為第一階段)」以「淘金」比喻,將AI發展分為四個階段:第一階段(淘金階段,賣工具)、第二階段(簡單模式發展,針對生產力)、第三階段(技術普及成長,3年後應用量)、第四階段(技術融合,啟動新奇商業應用)。目前AI仍處於第一階段,專注於硬體基礎建設(如GPU、TPU),以ChatGPT的快速成長為代表。
結合網路資訊,全球AI發展趨勢顯示,第一階段的硬體主導正在轉向第二階段的商業模式創新,未來第三階段和第四階段將涉及技術普及和技術融合。聯發科作為投影片提供者,在第一階段的硬體發展中扮演了重要角色,並積極布局未來階段。與前述演講內容相呼應,AI的發展需要大量基礎和高階人才,並將在實體AI、技術融合等領域創造新的成長機會。
台灣若想在AI發展中脫穎而出,需要加速硬體與軟體的整合(Hardware-Software Integration)、推動技術普及(Technology Adoption),並培養更多AI人才(AI Talent),以迎接未來的第二階段至第四階段的挑戰。