# 2025 AIA 春季論壇: 開源模型的衝擊與對應 - 演講心得筆記
網址:https://youtu.be/4bjAMfEWbf4?si=rzA31o_7sJMnJpWb
**議程索引**
* [KEYNOTE AI 運算的衝擊及展望 (0:17:43)](#keynote-ai-computation-impact-outlook)
* [開源模型論壇 與談人 洪士灝 教授 (1:06:35)](#panel-speaker-hong)
* [開源模型論壇 與談人 蔡祈岩 資訊長 (1:26:16)](#panel-speaker-tsai)
* [開源模型論壇 與談人 許永真 院長 (1:38:35)](#panel-speaker-hsu)
* [開源模型論壇 Panel Discussion 綜合座談 (1:54:47)](#panel-discussion)
* [AI 產業創新互動工作坊 (2:21:20)](#ai-industry-workshop)
* [開源 LLM 版圖導航 如何為應用選擇合適的模型 (3:11:10)](#open-llm-selection-guide)
* [中國的 AI 開源生態系現狀 (3:41:00)](#china-ai-os-ecosystem)
* [生成式 AI 的開源工具應用 (4:17:35)](#genai-os-tools-application)
* [行銷人的 GenAI 必修課 (4:43:30)](#marketer-genai-course)
* [開源趨勢下的 AI 人才認證計畫 (5:07:30)](#os-trend-ai-talent-certification)
---
## keynote-ai-computation-impact-outlook
**(影片時間戳: 0:17:43) - KEYNOTE AI 運算的衝擊及展望**
**講者:梁伯嵩 資深處長 (聯發科技 企業策略與前瞻技術)**
### 一、主題與目標
* **演講主題:** AI 運算需求的爆炸性增長、AI 發展階段 (System 1 到 System 2),以及開源模型在其中的角色與未來展望 (Agentic AI, Physical AI)。
* **演講目的:** 讓聽眾理解 AI 算力需求的歷史脈絡、當前以 Reasoning Model 為代表的進展、知識蒸餾的重要性,以及未來 AI 在實體世界與多代理人協作的潛力與挑戰。
### 二、大綱與重點
* **主要論點:**
1. **算力需求指數級增長:** 過去十年 AI 訓練算力需求增加 1 億倍,遠超摩爾定律及 GPU 平行運算增長,帶動大量 GPU 需求與半導體產業發展 (如台積電)。

2. **AI 發展階段 (System 1 -> System 2):** 從快速直覺 (System 1) 到需計畫推理 (System 2)。ChatGPT 的成功在於結合預訓練與後訓練 (RLHF)。Reasoning Model (如 O1, DeepSeek R1) 代表 System 2 的探索,在*推論階段*需要更多計算 (Test Time Compute) 來提升效果。


3. **知識蒸餾與模型大小:** 大型基礎模型 (教授級) 可透過知識蒸餾等方法產生適用於伺服器或邊緣的小型模型 (研究生/大學生級)。開源常釋出中等模型,適合再蒸餾。DeepSeek 的工程執行力使其能高效訓練。






4. **未來方向 (Agentic & Physical AI):** Agentic AI 透過多 AI 代理人協作 (分工、評估、使用工具 - MCP 協議) 完成複雜任務。Physical AI 讓 AI 與真實物理世界互動 (模擬+真實數據),克服純模擬 (缸中之腦) 的限制,機器人是重要載體。









* **背景脈絡:** 半導體摩爾定律、GPU 平行運算、Transformer 架構、RLHF 技術、指標模型發布 (AlexNet, GPT 系列, DeepSeek R1, O1)、NVIDIA GTC 大會內容。
* **關鍵詞:**
* **FLOPS/算力:** 計算性能單位。
* **Scaling Law:** 投入資源提升能力的規律。
* **System 1 / System 2:** 快思/慢想。
* **預訓練 (Pre-training) / 後訓練 (Post-training):** 訓練階段,後者如 RLHF。
* **Reasoning Model / 推理模型:** 強調邏輯推理。
* **Test Time Compute:** 推論時增加計算。
* **知識蒸餾 (Knowledge Distillation):** 大模型教小模型。
* **MOE (Mixture of Experts):** 模型架構。
* **Agentic AI / AI 代理人:** 多 AI 協作模式。
* **Physical AI / 具身智能 (Embodied AI):** 與物理世界互動。
* **缸中之腦 (Brain in a Vat):** 哲學思想實驗,類比純模擬 AI 的局限。
* **MCP (Model Context Protocol):** Agentic AI 工具使用介面。
### 三、案例與應用
* **實際案例:**
* ChatGPT 的成功 (System 1 + RLHF)。
* O1 模型在 GPQA 達到博士級水準。
* DeepSeek R1 解婚禮座位問題,展現 Reasoning 能力,但消耗更多 Token。
* AlphaGo / AlphaGo Zero 的進化。
* NVIDIA GTC 展示 Agentic AI 架構與角色分工。
* Boston Dynamics Atlas 機器人進化 (液壓到電動,更靈活)。
* Google DeepMind 展示機器人精細操作。
* Economist 文章指出未來 AI 推論 (Influence) 佔算力需求的 85% (含 Data Center 和 Edge)。
* **技術應用範疇:** GPU/TPU/ASIC 設計製造、大型模型訓練部署、知識蒸餾、Agentic AI 框架、機器人控制、模擬環境 (NVIDIA Isaac Sim)、6G 通訊、能源、醫療、金融、IC 設計自動化、供應鏈管理。
* **挑戰與成果:** 推理模型的推論成本高;雲端 AI 數據隱私問題催生本地部署 (On-premise) 需求;機器人控制複雜度高。成果:AI 能力持續提升,應用擴展到實體世界,推論市場巨大。
* **成功要素與失敗原因:** Scaling Law 有效但會飽和,RLHF 是突破關鍵;推理模型提升品質但增成本;DeepSeek 工程執行力強;Physical AI 需真實互動突破。
### 四、學習與成長
* **(講者未直接提供個人學習建議,以下為內容啟示)** 需持續關注 AI 模型、算法、硬體算力發展;理解 AI 發展階段 (System 1/2, Reasoning, Agentic, Physical);關注開源模型與知識蒸餾技術。
### 五、跨領域與合作
* **跨領域整合:** AI + 半導體、AI + 機器人學、AI + 通訊 (6G)、AI + 各垂直行業 (基礎設施、醫療、金融、法律、銷售)。
* **產學合作或業界連結:** 雲端服務商 (CSP)、半導體公司、AI 研究機構、大型企業 AI 部署、政府 (主權 AI)、新創公司。
### 六、趨勢與未來展望
* **未來科技趨勢:** 算力需求續增、小型化模型普及邊緣端、推理與 Agentic AI 成重點、Physical AI 連結虛實、AI 進入實體經濟 (Atom & Photon)。
* **機會與風險:** AI 半導體市場龐大;AI 民主化;新應用湧現。風險:成本高昂、潛在就業衝擊、AI 倫理安全。
* **新興領域或技術:** Agentic AI 協調機制、Physical AI 學習互動方法、AI 專用 ASIC、高效知識蒸餾。
### 七、個人啟發與行動
* **主要啟發:** AI 發展速度驚人;算力是基石;清晰的演進路徑 (System 1 -> 2 -> Agentic/Physical);開源與蒸餾帶來機會;AI 與實體結合潛力巨大;**人才**是最終關鍵。
* **可行行動:** (基於講者強調人才重要性) 評估自身或團隊在 AI 演算法、IC 設計、製程、行業應用方面的能力缺口。
* **進一步探索:** Agentic AI 框架、機器人模擬平台 (Isaac Sim)、知識蒸餾研究、System 1/2 理論。
---
## panel-speaker-hong
**(影片時間戳: 1:06:35) - 開源模型論壇 與談人 洪士灝 教授**
**與談人:洪士灝 教授 (臺大資工系)**
### 一、主題與目標
* **演講主題:** 開源 (Open Weight) 模型帶來的機會與挑戰,著重於成本效益、系統優化、推理模型建構,以及台灣的人才培育。
* **演講目的:** 強調在開源浪潮下,台灣應如何透過技術優化(平行化、記憶體、通訊)與專注於高品質數據的推理模型建構來創造價值,並呼籲重視相關人才的培育。
### 二、大綱與重點
* **主要論點:**
1. **開源降低門檻,但需「同中求異」:** 開源讓更多人參與,成功關鍵在於基於開源優化創新,非重造輪子。
2. **訓練成本下降與效率提升:** DeepSeek 案例顯示技術堆疊 (如 FP8) 可降成本。需理解 *如何* 達成效率。
3. **系統優化是關鍵:** 高效利用大量 GPU 需精通平行化、記憶體優化、大型叢集通訊優化。台灣需此類人才。
4. **推理 (Inference) 是主戰場:** 推論成本決定存活關鍵。ASIC 有潛力,但 GPU 因彈性仍佔優。
5. **建構 System 2 推理模型:** 利用開源模型,結合領域專家知識 Fine-tune。強調「貴精不貴多」,高品質推理樣本更有效(引 Stanford S1 案例)。
6. **人才培育刻不容緩:** 需要系統優化人才、領域專家,及懂用 AI 輔助學習/工作的下一代 (如用 Gemini 作助教)。教育體系需革新,思考推理能力培養。
* **背景脈絡:** DeepSeek 成本效益衝擊、GPU 硬體發展、開源框架 (DeepSpeed, FSDP)、Stanford S1 論文、台灣 AI 資源限制。
* **關鍵詞:**
* **Open Weight / 開放權重:** 比 Open Source 更精確。
* **Distillation / 蒸餾:** 大模型教小模型。
* **平行化 (Parallelization):** 多維度。
* **記憶體優化 (Memory Optimization):** 訓練瓶頸。
* **叢集通訊 (Cluster Communication):** 大型系統效能關鍵。
* **Inference Cost / 推論成本:** 主要成本。
* **ASIC:** 專用積體電路。
* **System 1 / System 2:** 快思/慢想。
* **Reasoning Model / 推理模型:** 強調邏輯。
* **Domain Expert / 領域專家:** 提供專業知識。
* **Fine-tuning / 微調:** 特定任務訓練。
* **High Quality Samples / 高品質樣本:** 推理模型訓練關鍵。
* **人才培育 (Talent Development):** 核心議題。
### 三、案例與應用
* **實際案例:**
* 分析 DeepSeek 達成 1/8 訓練成本的可能性 (技術堆疊)。
* 聯發科/Apple 購買 GPU 顯示算力投入。
* Meta 訓練 405B 模型需四維平行化。
* Stanford S1 用 1000 高品質樣本訓練數學模型。
* 台大課堂使用 Gemini 作助教。
* 提及用大型語言模型輔助寫 GPU code (甚至組合語言 PTX)。
* **技術應用範疇:** 大型模型訓練優化、推理服務成本降低、特定領域專家模型開發、AI 在教育應用。
* **挑戰與成果:** 挑戰:缺系統優化人才、高品質推理數據難取、硬體成本高、IP 風險 (蒸餾)。成果:開源降門檻、證明小樣本高品質數據有效性。
* **成功要素與失敗原因:** DeepSeek 成本效益(潛在成功);GPU 利用率低(若無優化則失敗);S1 用少量高品質樣本成功(成功)。
### 四、學習與成長
* **(講者未直接提供個人學習建議,以下為內容啟示)** 需學習系統優化技術;理解模型架構與訓練方法;掌握開源框架;培養生成/評估高品質數據能力;學會與 AI 協作。
### 五、跨領域與合作
* **跨領域整合:** AI + 各垂直行業 (專家 fine-tune)、AI + 教育。
* **產學合作或業界連結:** 需產學合作培育人才;企業需建優化團隊。
### 六、趨勢與未來展望
* **未來科技趨勢:** 訓練成本續降、推論效率成核心、小型/專業推理模型興起、數據品質重要性提升、優化人才需求增。
* **機會與風險:** 台灣可利用開源建專家模型;需積極培養人才。風險:若無人才策略可能落後;數據隱私與 IP 風險。
* **新興領域或技術:** 高效訓練/推論算法、系統性推理數據生成、低階 GPU 編程優化 (PTX)。
### 七、個人啟發與行動
* **主要啟發:** 開源非免費午餐,技術深度(優化)關鍵;數據「貴精不貴多」;人才是根本,教育需跟上。
* **可行行動:** (講者建議台灣整體方向) 台灣應多找人才,利用開源基礎打造專家模型,同時開發高效率技術 (系統優化、加速晶片)。
* **進一步探索:** DeepSeek 等模型的高效訓練技術;Stanford S1 論文;GPU 底層優化技術 (PTX)。
---
## panel-speaker-tsai
**(影片時間戳: 1:26:16) - 開源模型論壇 與談人 蔡祈岩 資訊長**
**與談人:蔡祈岩 資訊長 (台灣大哥大)**
### 一、主題與目標
* **演講主題:** DeepSeek 後的 AI 發展趨勢、台灣企業導入 AI 的實際挑戰與解決方案,以及如何透過社群力量(IMA)推動台灣的開源生態與數據建設。
* **演講目的:** 分析當前 AI 重要趨勢(特別是 AI Agent),提出針對台灣企業現況的務實導入方案(如與群聯合作),展示 AI 對 IT 生產力的提升,並倡導建立活躍的開源貢獻社群與台灣語言資料庫。
### 二、大綱與重點
* **主要論點:**
1. **後 DeepSeek 時代 AI 趨勢:** 地緣政治 AI 競賽加劇;AI 倫理受重視;Reasoning (COT) 成主流;Open Source 將成主流 (引 Gemma 3);**AI Agent 是關鍵驅動力** (User 手機 Agent -> 知識/規劃/消費代理顛覆搜尋/電商);通用語料耗盡,轉向專業領域 AI & AI 學物理世界。

2. **企業落地解決方案 ("落地全家桶"):** 與群聯合作,用 SSD 擴展 GPU VRAM,解決企業痛點,降低硬體門檻 (適用訓練犧牲速度/推論 KV cache)。
3. **AI 驅動 IT 生產力變革:** AI 顯著提升 SDLC 效率 (設計 1.3x, Coding 1.66x, QA 2x, Ops 1.5x)。工程師變 "Pilot",AI 成 "Copilot"。打破孤島。
4. **推動台灣開源生態 (IMA 計畫):** AI Open Source Team Taiwan (平台/獎勵/串連貢獻者);Project Taiwan Tongues (平台/收集整理台灣語言語料,讓 Global AI 懂台灣)。

5. **應對台灣產業結構:** 決策者年齡偏高,需短期見效、低門檻、無資安疑慮方案。引導年輕人參與全球開源社群,培養全球市場人才。
* **背景脈絡:** DeepSeek 發布、Gemma 3 發布、台灣大哥大與 Perplexity 合作、群聯電子 SSD 技術、台灣企業決策結構、資訊管理學會 (IMA)。
* **關鍵詞:**
* **地緣政治 (Geopolitics):** AI 國家競爭。
* **AI 倫理 (AI Ethics):** 負責任發展。
* **Reasoning / Chain-of-Thought (COT):** 推理能力。
* **Open Source / 開源:** 主流趨勢。
* **AI Agent / AI 代理人:** 知識、規劃、消費代理。
* **專業領域 AI (Specialized AI):** 特定行業。
* **物理世界 AI (Physical AI):** 與現實互動。
* **落地全家桶:** On-premise 解決方案。
* **GPU VRAM / 顯存:** 記憶體瓶頸。
* **SSD KV Cache:** SSD 加速推論。
* **SDLC (Software Development Life Cycle):** 軟體開發流程。
* **Pilot / Copilot:** 人 AI 協作比喻。
* **Open Source Contribution / 開源貢獻:** 需加強。
* **台灣語料庫 (Taiwan Tongues):** 本土語言數據。
* **IMA (Information Management Association):** 資訊管理學會。
### 三、案例與應用
* **實際案例:**
* 台灣大哥大 IT 團隊用 AI 工具 (Cursor AI) 提升 SDLC 效率。
* 台灣大哥大與群聯合作推 SSD 輔助 AI 硬體方案。
* 台灣大哥大與 Perplexity 合作引入 AI Agent。
* 資訊管理學會 (IMA) 推動 AI OS Team Taiwan, Project Taiwan Tongues。
* **技術應用範疇:** AI Agent 開發、SSD 於 AI 加速應用、AI 工具導入軟體開發、開源社群平台建構、多語言語料庫建置。
* **挑戰與成果:** 挑戰:說服企業決策者投入 AI?激勵年輕人參與開源?收集整理本土語言資料?成果:展示 AI 提升 IT 效率數字;提出務實硬體方案;啟動社群與數據計畫。
* **成功要素與失敗原因:** 群聯方案解決 VRAM 痛點(潛在成功);提供短期 ROI 是關鍵。
### 四、學習與成長
* **(講者未直接提供個人學習建議,以下為內容啟示)** 需關注 AI Agent 發展;了解務實企業級 AI 方案;參與或支持開源社群與數據共建。
### 五、跨領域與合作
* **跨領域整合:** AI + 電信、AI + 儲存技術 (SSD)、AI + 軟體工程、AI + 語言學/文化 (Taiwan Tongues)。
* **產學合作或業界連結:** 台哥大 + Perplexity (服務合作);台哥大 + 群聯 (技術合作);IMA 作平台連結產官學研社群。
### 六、趨勢與未來展望
* **未來科技趨勢:** AI Agent 普及改變使用者行為;務實本地/混合部署方案受青睞;開源貢獻成影響力途徑;對特定領域/語言數據需求增。
* **機會與風險:** AI Agent 帶來新商機也顛覆舊模式;硬體創新提供新選擇;台灣可透過開源貢獻和語言數據建價值。風險:產業若調適不及可能落後;人才若不與國際接軌可能受限。
* **新興領域或技術:** 消費者 AI Agent 平台、SSD 在 AI 加速應用、大型本土語言資料庫建置應用。
### 七、個人啟發與行動
* **主要啟發:** AI Agent 潛力驚人;硬體創新能降 AI 門檻;社群共建(開源貢獻、數據共享)對台發展重要;需提務實策略。
* **可行行動:** 試用 Perplexity 等 AI Agent;關注群聯等硬體方案;考慮參與開源項目或支持語言數據計畫。
* **進一步探索:** AI Agent 架構應用、群聯 aiDAPTIV+ 技術、IMA 專案計畫。
---
## panel-speaker-hsu
**(影片時間戳: 1:38:35) - 開源模型論壇 與談人 許永真 院長**
**與談人:許永真 院長 (長庚大學智慧運算學院 / AIA COE)**
### 一、主題與目標
* **演講主題:** 釐清開源 AI 模型與傳統開源軟體的差異,探討台灣在資源有限下的策略(以 TaiDE 計畫為例),並強調使用開源模型(特別是 DeepSeek)時需關注的風險(安全、IP)。
* **演講目的:** 讓聽眾理解「開源」在 AI 領域的特殊性,認識到台灣作為資源有限者的機會與挑戰,並提升對開源模型潛在風險(尤其是安全性與合規性)的警覺。
### 二、大綱與重點
* **主要論點:**
1. **開源 AI 模型 ≠ 開源軟體:** 傳統 OSS 強調源碼自由。開源 AI 模型 (Open Weight) 主要開權重,數據/代碼常不公開。動機含加速創新、降成本,但哲學基礎不同。商業模式演進中。



2. **台灣策略 (TaiDE 經驗):** 資源有限下 (72 GPU),利用 Llama 2 (允許商用) 成功訓練 TaiDE,證明人才有能力,但受限於資源和**數據稀缺**(繁中資料不足)。
3. **DeepSeek 深入分析:**
* **優點:** 高效率來自堆疊已知技術,打破 Scaling Law 迷思,給資源有限者啟發。
* **疑慮與風險:** IP 風險 (可能用 GPT 數據蒸餾);安全風險 (Virtual AI 報告顯示安全性差);成本迷思 ($560 萬美金仍高昂,且未計總成本)。
4. **台灣應對之道:** 擁抱開源;審慎評估模型優缺點與**風險**;聚焦應用與安全 (Agentic/Physical AI),**加強 AI 安全**;爭取資源 (教育/研究算力)。
* **背景脈絡:** 開源軟體史 (FSF)、TaiDE 計畫、Llama 授權變化、DeepSeek 討論、Virtual AI 安全報告、台灣 AI 資源現狀。
* **關鍵詞:**
* **Open Source Software (OSS):** 強調源碼。
* **Free Software Foundation (FSF):** 自由軟體運動。
* **Open AI Model / Open Weight:** 開放權重。
* **Model Architecture / Weights:** 模型架構/參數。
* **License / 授權:** 法律條款。
* **TaiDE:** 台灣對話引擎計畫。
* **Resource-Limited:** 資源有限。
* **Scaling Law:** 模型規模與能力關係。
* **Distillation / 蒸餾:** 潛藏 IP 風險。
* **Mixture of Experts (MoE):** 模型架構。
* **Security Risk / 安全風險:** 模型濫用風險。
* **Trustworthy AI / 可信賴 AI:** 重要目標。
* **Data Scarcity / 數據稀缺:** 繁中資料問題。
* **Agentic AI / Physical AI:** 應用方向。
### 三、案例與應用
* **實際案例:** TaiDE 計畫開發成果;DeepSeek 訓練效率分析及 IP/安全風險;Virtual AI 對 DeepSeek 的安全評估。
* **技術應用範疇:** LLM 訓練微調、AI 安全性評估、資源受限環境下應用開源模型。
* **挑戰與成果:** 挑戰:台灣缺算力/本土數據;開源模型安全/IP 風險;爭取算力資源。成果:TaiDE 證明人才能力;提升對開源風險認知。
* **成功要素與失敗原因:** TaiDE 利用 Llama 2 開放授權與團隊能力(成功);DeepSeek 高效(成功)但伴隨風險;繁中數據不足(挑戰)。
### 四、學習與成長
* **(講者未直接提供個人學習建議,以下為內容啟示)** 需批判性評估「開源」;關注 AI 安全、倫理、合規;學習如何在資源限制下利用開源;學習 Agentic/Physical AI。
### 五、跨領域與合作
* **跨領域整合:** AI + 法律/智財權、AI + 網路安全、AI + 教育。
* **產學合作或業界連結:** 政府需制定政策支持學界獲算力;可能需與大廠協商教育資源。
### 六、趨勢與未來展望
* **未來科技趨勢:** 開源權重模型續增;對 AI 安全/可信賴要求提高;資源有限者更依賴開源;應用層創新是重點。
* **機會與風險:** 台灣可利用開源專注利基應用與 AI 安全;有機會建繁中數據優勢。風險:若忽視安全/IP 問題後果嚴重;缺資源阻礙人才/研究。
* **新興領域或技術:** AI 安全審計、可信賴 AI 設計框架、資源受限高效微調技術。
### 七、個人啟發與行動
* **主要啟發:** 「開源」非全然美好,需審視風險;安全與可信賴應是核心;資源有限下,策略選擇重要;數據是血液,本土數據關鍵。
* **可行行動:** 選擇開源模型時查核授權與安全報告;投入數據收集清理;積極爭取/尋找運算資源。
* **進一步探索:** Virtual AI 的 DeepSeek 安全報告、開源模型授權細節、TaiDE 技術報告、AI 安全倫理研究。
---
## panel-discussion
**(影片時間戳: 1:54:47) - 開源模型論壇 Panel Discussion 綜合座談**
**主持人:侯宜秀 秘書長**
**與談人:洪士灝 教授、蔡祈岩 資訊長、許永真 院長**
### 一、主題與目標
* **討論主題:** 深入探討台灣在 AI 模型落地時面臨的實際障礙(模型之外的挑戰)、如何活絡台灣在國際開源社群的貢獻,以及政府在此生態系建立中可扮演的角色。
* **討論目的:** 匯集產學觀點,找出推動台灣 AI 應用與開源生態發展的關鍵挑戰與可行解方。
### 二、大綱與重點
* **主要論點 (綜合整理):**
1. **模型落地挑戰:** 光有模型不夠,缺完整生態系 (Agentic AI 整合、推理能力待加強) (許);數據與算力仍是瓶頸 (洪);企業導入障礙 (決策層保守,需短期 ROI、低風險方案) (蔡)。
2. **活絡開源貢獻:** 動機與誘因不足 (學界/業界缺誘因,人才進大廠後停止貢獻,領導者缺開源思維) (洪、蔡);解方:改變思維,提供肯定與舞台 (政府獎勵/肯定,讓公司有面子) (蔡);提供資源支持 (類新創基金) (蔡);提高軟體/開源工程師薪資地位 (洪);強調開源對個人職涯重要性 (許);教育需鼓勵探索 (許)。
3. **政府角色:** 增加 AI 基礎設施投資 (算力),改善資源分配問題 (許、洪);與大廠協商教育資源 (許);利用「給光環」能力肯定貢獻 (蔡);改變採購模式,主動支持民間/青年開源項目 (蔡);重新思考 OSSF 類計畫 (侯)。
* **背景脈絡:** OSSF 計畫歷史、IMA 推動的計畫、國外大學獲 GPU 捐贈情況、台灣政府採購制度現狀。
* **關鍵詞:** 落地障礙、開源貢獻、誘因機制、人才流動、政府角色、資源分配、採購模式、OSSF。
### 三、案例與應用
* **實際案例:** OSSF 計畫;IMA 推動的獎勵與語料庫計畫;國外大學獲 NVIDIA GPU 捐贈。
* **挑戰與成果:** 挑戰:如何突破體制有效支持開源?如何改變企業文化與個人誘因?成果:凝聚問題共識,提出可行建議方向。
### 四、學習與成長
* **(討論啟示)** 理解產業生態、政策環境,思考個人/組織如何貢獻與獲益。
### 五、跨領域與合作
* **跨領域整合:** AI + 政策制定、AI + 社區營造、AI + 教育改革。
* **產學合作或業界連結:** 強調政府、產業、學界、社群需共同努力。
### 六、趨勢與未來展望
* **未來科技趨勢:** AI 落地需克服多重挑戰;開源貢獻價值將被認可;政府支持模式需轉型。
* **機會與風險:** 務實策略與社群力量助台灣建優勢;若無行動則人才機會流失。
### 七、個人啟發與行動
* **主要啟發:** AI 成功落地是系統工程;開源貢獻文化需培養與制度支持;政府角色應從主導轉向賦能引導。
* **可行行動:** 參與/支持相關開源社群/數據計畫;向決策者傳達務實導入 AI 觀點;在組織內推動開源貢獻文化。
* **進一步探索:** IMA 等組織計畫;國外政府支持開源/AI 教育模式;思考如何在自身領域貢獻。
---
## ai-industry-workshop
**(影片時間戳: 2:21:20) - AI 產業創新互動工作坊**
**主持:周哲緯 教授 (逢甲大學) / 葉茂陽 研究員 (台灣人工智慧學校)**
### 一、主題與目標
* **活動主題:** 進行「台灣產業導入 AI 研究評估評量」問卷調查。
* **活動目的:** 收集企業在導入 AI 時的準備度、挑戰、專案評估等資訊,助 AIA 研究如何協助產業 AI 創新轉型。
### 二、大綱與重點
* **主要內容:** 引導填寫問卷。
* **問卷結構:** 企業基本資料、導入 AI 準備度 (五層級:策略、創新、財務、組織、技術、資料治理、基礎建設)、AI 專案導入評估 (鑑別/生成式應用、案例成效、經費、人力、開發模式、部署、數據、效益評估)。
* **關鍵詞:** 問卷調查、AI Readiness、企業導入、專案評估。
### 三、案例與應用
* **實際案例:** 問卷本身。
* **技術應用範疇:** 問卷涵蓋多種 AI 技術與應用場景。
### 四、學習與成長
* **(參與者行動)** 透過填寫問卷反思企業 AI 導入現況。
### 五、跨領域與合作
* **跨領域整合:** 問卷涵蓋策略、財務、組織、技術、數據、基礎建設。
* **產學合作或業界連結:** AIA (學/研) 向產業界收集資訊。
### 六、趨勢與未來展望
* **未來科技趨勢:** 問卷反映當前企業導入 AI 需考量面向。
* **機會與風險:** 助企業自我評估機會與風險。
### 七、個人啟發與行動
* **主要啟發:** 導入 AI 需系統性評估多構面。
* **可行行動:** 完成問卷,檢視自身/組織 AI Readiness。
* **進一步探索:** 關注 AIA 後續問卷分析結果。
---
## open-llm-selection-guide
**(影片時間戳: 3:11:10) - 開源 LLM 版圖導航 如何為應用選擇合適的模型**
**講者:黃瀚萱 副研究員 (中研院資訊科學研究所)**
### 一、主題與目標
* **演講主題:** 在眾多開源大型語言模型 (LLM) 中,如何根據應用需求進行選擇。
* **演講目的:** 提供一套選擇開源 LLM 的框架與關鍵考量因素,特別強調常被忽略的「上下文窗口 (Context Window)」的重要性。
### 二、大綱與重點
* **主要論點:**
1. **開源 LLM 快速迭代:** 新模型發布頻繁,選擇變多也更複雜。
2. **核心選擇標準:** 授權 (硬性)、模型大小 (硬體)、模型能力 (語言/推理/特定領域)、**上下文窗口**(重要性常被忽略)、MOE 架構考量 (適用高算力/高吞吐場景)。
3. **評估方法:** 參考公開排行榜 (LMSys Arena)、專門評測 (LeetCode)、工具評估**有效**上下文長度 (NVIDIA Ruler)。
4. **Context Window 重要性:** 影響長對話記憶、Few-Shot/RAG 效果、Reasoning 空間。長 Context 可實現無需 Retrieval 的 RAG (CAG 架構)。近期模型開始重視此能力。
* **背景脈絡:** 開源 LLM 大量湧現、評測社群與工具 (LMSys, Ruler)、RAG 技術發展。
* **關鍵詞:**
* **Open LLM:** 開源大型語言模型。
* **License:** 授權。
* **Model Size:** 模型大小。
* **Capability:** 模型能力。
* **Context Window:** 上下文窗口。
* **Effective Context Length:** 有效上下文長度。
* **Few-Shot Learning:** 少樣本學習。
* **RAG:** 檢索增強生成。
* **MOE:** 專家混合模型。
* **Throughput:** 吞吐量。
* **Benchmark:** 評測基準。
### 三、案例與應用
* **實際案例:** LMSys Chatbot Arena 排行榜;LeetCode 週賽評測模型 Coding 能力;NVIDIA Ruler 評估 Llama 3.1 有效 Context;Mistral Small 發布評測包含長上下文結果;CAG 架構概念。
* **技術應用範疇:** LLM 選型、模型評測、RAG 設計、Few-Shot 應用、Reasoning Model 應用。
* **挑戰與成果:** 挑戰:選型困難、評估指標多、有效 Context 難確定。成果:提供選型框架、強調 Context Window 重要性。
* **成功要素與失敗原因:** 選擇與場景匹配模型是成功關鍵;忽略 Context Window 可能導致效果不佳。


### 四、學習與成長
* **(講者未直接提供個人學習建議,以下為內容啟示)** 需建立系統性模型評估方法;關注評測工具進展;理解 Context Window 對應用的影響。
### 五、跨領域與合作
* **跨領域整合:** AI + 系統評測、AI + 軟體工程。
* **產學合作或業界連結:** 學術界/業界/社群共同參與模型評測開發。
### 六、趨勢與未來展望
* **未來科技趨勢:** 模型續迭代 (更小更強?);Context Window 續增長;評估方法更多元;MOE 可能續用大模型。
* **機會與風險:** 開發者更多選擇;長 Context 帶來新應用。風險:選錯模型致效能不彰/浪費資源;硬體限制。
* **新興領域或技術:** 精準長上下文評測、無需 Retrieval 的 RAG。
### 七、個人啟發與行動
* **主要啟發:** 模型選擇需多維評估;Context Window 是關鍵隱藏指標。
* **可行行動:** 明確應用需求 (大小/推理/Context);參考多方評測 (Arena, Ruler);實際測試候選模型。
* **進一步探索:** LMSys Arena 網站、NVIDIA Ruler 論文/代碼、Context Window 擴展技術。
---
## china-ai-os-ecosystem
**(影片時間戳: 3:41:00) - 中國的 AI 開源生態系現狀**
**講者:林旅強 (前負責人, 零一萬物開源)**
### 一、主題與目標
* **演講主題:** 介紹中國大陸 AI 開源生態系的發展歷程、主要參與者、政府政策影響、社群動態以及潛在風險。
* **演講目的:** 讓聽眾(尤其是台灣聽眾)了解中國 AI 開源的現狀與趨勢,認識關鍵角色與其策略變化(特別是 DeepSeek 出現後的影響),並思考台灣可借鑒或需注意之處。
### 二、大綱與重點
* **主要論點:**
1. **發展階段:** 前期 (框架為主) -> 中期 (百模大戰/Llama套殼質疑) -> 近期 (DeepSeek 後,開源成新常態)。
2. **主要玩家 ("六小虎" + 大廠):** 六小虎 (智譜/OS領導者, 百川, 零一, Minimax, 月之暗面, 階躍) 策略轉變;大廠 (阿里/Qwen/OS模範生, 華為/盤古, 百度/文心/態度轉變, 字節/豆包/潛力股, 騰訊/混元/OS轉向);DeepSeek (特殊存在,影響巨大)。
3. **生態動態:** 快速跟進幣源 (OpenManus);活躍社群 (ModelScope, Datawhale, 悟道);國際連結與人才流動。
4. **政策影響:** 中央「十四五規劃」支持開源;地方政府積極響應競爭 (浙江);官方基金會 (OpenAtom)。
5. **風險與考量:** 開源模型≠開源軟體;IP/安全風險;地緣政治。
6. **台灣視角:** 發揮語言優勢直接了解;克服資訊壁壘 (用微信等);關注硬體結合開源 (智元機器人)。
* **背景脈絡:** DeepSeek 衝擊、中國「百模大戰」、特定公司背景、中國五年規劃政策、中美科技競爭。
* **關鍵詞:**
* **PaddlePaddle / MindSpore:** 早期框架。
* **百模大戰:** 2023 現象。
* **六小虎:** AI 獨角獸。
* **拉馬套殼:** 早期貶稱。
* **開源/閉源:** 模型策略。
* **Qwen/盤古/文心/豆包/混元:** 大廠模型。
* **DeepSeek:** 關鍵模型/公司。
* **十四五規劃:** 國家計畫。
* **開放原子開源基金會:** 官方基金會。
* **ModelScope:** 模型社區。
* **Datawhale:** 學生學習社群。
* **具身智能:** 結合機器人。
* **智元機器人:** 開源機器人項目。
### 三、案例與應用
* **實際案例:** 智譜/百川率先開源;百度態度轉變;Manus 被快速開源復現;智元機器人開源硬體/數據。
* **技術應用範疇:** LLM 開發、AI 框架、開源社區運營、AI Agent、機器人硬軟體、政府 AI 政策。
* **挑戰與成果:** 挑戰:早期原創性質疑、開源商業模式不明、地緣政治風險、資訊獲取管道。成果:DeepSeek 證明開源可達頂尖、中國形成活躍生態、政府政策支持。
* **成功要素與失敗原因:** DeepSeek 技術/成本效益(成功);百度早期誤判(失敗/學習);開源社群快速反應(成功)。
### 四、學習與成長
* **(講者建議方向)** 關注全球(含中國)AI 開源生態;利用語言優勢獲取資訊;學習使用中國生態常用工具;關注開源硬體。
### 五、跨領域與合作
* **跨領域整合:** AI + 政策、AI + 硬體、AI + 社群、AI + 投資。
* **產學合作或業界連結:** 智譜與清華合作;Datawhale 連結學生產業;基金會促跨機構合作。
### 六、趨勢與未來展望
* **未來科技趨勢:** 開源在中國 AI 角色更核心;Agent/具身智能是方向;硬體開源可能成趨勢;政府持續投入。
* **機會與風險:** 台灣可利用語言優勢找利基;硬體產業有與開源機器人合作潛力。風險:地緣政治不確定;IP/安全風險;競爭激烈。
* **新興領域或技術:** 開源機器人平台、大規模 AI 教育開源社區、中國特色 AI 應用。
### 七、個人啟發與行動
* **主要啟發:** 中國 AI 開源生態發展迅速複雜;DeepSeek 影響力超預期;台灣應更主動直接了解對岸。
* **可行行動:** 用微信關注公眾號/社群;追蹤 ModelScope/Datawhale;研究智元機器人項目;評估中國頂尖開源模型。
* **進一步探索:** ModelScope 平台、Datawhale 資源、智元機器人 GitHub、中國 AI 政策文件。
---
## genai-os-tools-application
**(影片時間戳: 4:17:35) - 生成式 AI 的開源工具應用**
**講者:蔡政霖 技術處副組長 (台灣人工智慧學校)**
### 一、主題與目標
* **演講主題:** 介紹一系列用於實現生成式 AI 應用的開源工具,涵蓋模型使用、本地微調、部署服務、多模態處理及工作流自動化。
* **演講目的:** 為開發者和技術愛好者提供一個開源 GenAI 工具箱的概覽,展示如何利用這些工具在本地或企業內部建構、部署和應用生成式 AI。
### 二、大綱與重點
* **主要論點:**
1. **開源價值:** 開源軟體佔商業軟體高比例,降成本,創價值。
2. **開源 LLM 使用心得:** Gemma 3 (中文佳), Llama 3.x (Fine-tune 基座), Qwen (寫程式快), DeepSeek R1 (行銷/程式強)。模型是壓縮知識。多模態輸入處理。
3. **本地微調工具:** Llama Factory (GUI, 支援多種訓練方式, 易用)。提供 VRAM 需求參考。
4. **模型部署服務框架:** VLLM (內容生成), SGLang (多輪對話/結構化輸出), TGI (企業部署/Adapter)。
5. **多模態開源工具:** Text-to-Code (Clian Demo), OCR (PaddleOCR, Surya, MinerU), Text/Image-to-Image (SD, Flux), Text/Image-to-Video (海螺較佳), World Models (NVIDIA Cosmos), Text/Image-to-3D (混元 3D)。
6. **本地部署與工作流自動化:** Portainer (Docker 管理), N8N (工作流自動化 Demo), Open WebUI (本地聊天), AnythingLLM (本地 RAG), Dify (本地類 Perplexity)。
7. **AIA 學員案例 (本地 RAG):** 結合 N8N, Vector DB, Line Bot, NocoDB 查政府報告。
* **背景脈絡:** 開源模型工具蓬勃發展,本地部署/客製化需求增。
* **關鍵詞:**
* **Open Source Tools:** 開源工具。
* **Generative AI:** 生成式 AI。
* **LLM:** 基礎模型。
* **Multimodality:** 多模態。
* **Fine-tuning:** 微調。
* **Llama Factory:** GUI 微調工具。
* **Deployment / Serving:** 部署服務。
* **Text-to-Code / OCR / Text-to-Image / Text-to-Video / Text-to-3D:** 各模態生成。
* **Workflow Automation:** N8N。
* **Local Deployment:** 本地部署。
* **RAG:** 檢索增強生成。
### 三、案例與應用
* **實際案例:** Clian 生成 Python MNIST 程式;用 OCR 工具辨識文件;比較圖/影生成模型效果;N8N 自動化股票分析;AIA 學員本地 RAG 系統。
* **技術應用範疇:** 本地 AI 微調部署、自動程式生成、文件數位化提取、圖/影/3D 創作、AI 工作流自動化、本地知識庫問答。
* **挑戰與成果:** 挑戰:工具多學習曲線、本地部署需硬體/技術。成果:展示用開源工具可搭強大本地 GenAI 應用。
* **成功要素與失敗原因:** 選對工具組合;理解工具優劣;具備 Docker/系統配置能力。
### 四、學習與成長
* **(講者展示工具作為學習方向)** 持續追蹤試用開源 GenAI 工具;學習 Docker;掌握工作流自動化工具 (N8N);動手實作。
### 五、跨領域與合作
* **跨領域整合:** AI + 軟體開發、AI + 文件處理、AI + 設計、AI + 金融分析、AI + 自動化。
* **產學合作或業界連結:** 開源社群本身是合作模式;AIA 將工具知識傳授學員企業。
### 六、趨勢與未來展望
* **未來科技趨勢:** 開源 GenAI 工具續豐富;本地化/可控 AI 需求增;工作流自動化與 AI 結合更緊密;多模態工具更成熟。
* **機會與風險:** 開源降創新門檻;可建客製私密應用。風險:工具品質不一;安全配置需謹慎;技術更新快。
* **新興領域或技術:** 易用本地微調平台、行業開源 AI 工作流模板、開源多模態 Agent 工具。
### 七、個人啟發與行動
* **主要啟發:** 開源社群提供極豐富 GenAI 工具,可本地實現強大功能;N8N 是串聯 AI 服務利器。
* **可行行動:** 根據需求試用開源工具 (OCR, N8N, Open WebUI);若需開發,嘗試 Clian;若需微調,研究 Llama Factory。
* **進一步探索:** Llama Factory 教程、N8N 文檔模板、VLLM/SGLang/TGI 比較、特定領域 SOTA 開源模型。
---
## marketer-genai-course
**(影片時間戳: 4:43:30) - 行銷人的 GenAI 必修課**
**講者:邵懿文 策略創新長 (台灣電通)**
### 一、主題與目標
* **演講主題:** 生成式 AI 對行銷廣告產業的衝擊、挑戰與應對策略,以及台灣電通如何利用 AI 與數據轉型。
* **演講目的:** 分享行銷產業面對 AI 衝擊的實際經驗,說明如何化危機為轉機,強調數據、內部平台、全員學習的重要性,並展望 AI 如何賦能行銷人及中小企業。
### 二、大綱與重點
* **主要論點:**
1. **行銷業 AI 衝擊:** 第一波受影響;搜尋改變、創意製作流程被加速/取代;外部質疑。
2. **電通應對 (進攻):** 流程再造 (縮短週期);角色轉變 (內製/強化研究分析/模擬/技術整合);**數據是核心優勢** (內部專有數據);轉型為 Optimizer (System 1+2);建企業級 AI 平台 (整合數據/工具/保隱私)。
3. **全員學習與賦能:** AI 全員必修,建共同語言,對齊期望。AI 讓人人可成行銷天才。
4. **開源對行銷業意義:** 降技術門檻/成本;助建內部平台;**未來可能**賦能中小企業 (透過開源模型/平台分享數據經驗)。
5. **AI 行銷人才認證:** 與 AIA 合作規劃課程,創行銷人新價值。
* **背景脈絡:** GenAI 對創意產業衝擊、廣告行銷流程、台灣中小企業行銷需求、System 1/2 理論。
* **關鍵詞:**
* **Generative AI:** 生成式 AI。
* **Marketing:** 行銷。
* **Creative Production:** 創意製作。
* **Workflow Re-engineering:** 流程再造。
* **Proprietary Data:** 專有數據。
* **AI Ready Data:** 高品質 AI 可用數據。
* **System 1 / System 2:** 品牌直覺 vs. 數據優化。
* **Optimizer:** 優化者。
* **Enterprise AI Platform:** 企業級 AI 平台。
* **Continuous Learning:** 持續學習。
* **AI Marketing Certification:** AI 行銷認證。
* **SME Empowerment:** 中小企業賦能。
### 三、案例與應用
* **實際案例:** 電通內部 AI 平台開發應用 (影片展示);電通全員 AI 培訓;與 AIA 合作規劃認證課程;計畫透過開源賦能中小企業。
* **技術應用範疇:** GenAI 於廣告製作;數據分析挖掘洞察;行銷效果預測模擬;企業內 AI 平台建置。
* **挑戰與成果:** 挑戰:客戶對 AI 不確定;數據整合難;全員能力提升需時;保隱私安全。成果:建內部 AI 平台;明確轉型方向;啟動培訓認證。
* **成功要素與失敗原因:** 視 AI 為機會主動進攻;重視投資內部數據平台;推全員學習文化。
### 四、學習與成長
* **(講者強調組織層面)** 行銷人需擁抱 AI 工具技能;學習結合數據判斷優化 (System 2);培養跨領域能力;參與課程認證。
### 五、跨領域與合作
* **跨領域整合:** AI + 行銷廣告、AI + 數據科學、AI + 組織變革、AI + 教育培訓。
* **產學合作或業界連結:** 電通 (產業) + 客戶 (需求);電通 (產業) + AIA (教育/研究)。
### 六、趨勢與未來展望
* **未來科技趨勢:** AI 深度整合行銷;數據驅動優化成核心;安全私有企業平台受重視;AI 素養成標配。
* **機會與風險:** 行銷公司轉型策略夥伴;提供 AI 顧問服務;開源賦能中小企業。風險:不轉型被淘汰;數據安全隱私;客戶 DIY 效果不彰。
* **新興領域或技術:** AI 驅動行銷策略生成模擬平台、安全企業級行銷 AI 方案、標準化 AI 行銷人才認證。
### 七、個人啟發與行動
* **主要啟發:** 傳統產業應積極擁抱 AI 找新定位;數據是核心競爭力,內部數據珍貴;全員學習與平台化是轉型關鍵。
* **可行行動:** 學習 GenAI 行銷應用;檢視自身/組織數據資產管理;參與 AI 行銷課程/認證;思考 AI 融入工作流程。
* **進一步探索:** 電通 AI 方案 (Merkle)、主流 AI 行銷工具平台、AI 消費者行為分析應用、AI 行銷倫理隱私規範。
---
## os-trend-ai-talent-certification
**(影片時間戳: 5:07:30) - 開源趨勢下的 AI 人才認證計畫**
**講者:蔡明順 校務長 (台灣人工智慧學校)**
### 一、主題與目標
* **演講主題:** 在開源 AI 趨勢下,台灣人工智慧學校 (AIA) 如何規劃人才培育框架與相對應的認證計畫。
* **演講目的:** 介紹 AIA 的人才分級模型,說明目前市場需求,並預告即將推出的針對不同層級(特別是行政應用與軟體開發)的 AI 認證,以期對接產業需求與國家 AI 發展策略。
### 二、大綱與重點
* **主要論點:**
1. **背景 (雙隊伍理論):** 引用黃仁勳概念,未來人機協作,需 AI 能力線與專家認可線。
2. **2025 AI 趨勢回顧:** 重申 Scaling Law、小模型、AI Agent、開源加速、Physical AI、Memory/Context、AI Security。
3. **AIA 人才金字塔框架:** 底層 (使用者/AI素養) -> 中層 (開發/應用者) -> 頂層 (研究/管理者)。
4. **市場需求 Top 3:** GenAI 應用導入、數據分析、深度學習基礎。
5. **AIA 新認證計畫 (Q2 啟動):** AI 行政管理師 (辦公室 LLM 應用知識);生成式 AI 軟體開發應用工程師 (GenAI for SDLC)。
6. **對接國家 AI 策略 (AI 科技島):** AIA 人才培育目標與國科會三層次人才需求 (研究/開發/應用) 呼應。
* **背景脈絡:** 黃仁勳理念、論壇觀點總結、就業市場 AI 人才需求、AIA 認證經驗、國科會 AI 科技島政策。
* **關鍵詞:**
* **雙隊伍理論:** 人機協作。
* **AI 能力線 / 專家認可線:** 技術與應用關係。
* **人才金字塔:** 分級模型。
* **AI 素養認證:** 現有基礎認證。
* **AI 行政管理師:** 新應用級認證。
* **GenAI for SDLC:** 新開發級認證/課程。
* **AI 科技島:** 國家發展願景。
### 三、案例與應用
* **實際案例:** AIA AI 素養認證 1200+ 人參與;就業市場數據;AIA 即將推新認證。
* **技術應用範疇:** LLM 辦公室應用、GenAI 軟體開發應用、AI 人才技能標準化評估。
* **挑戰與成果:** 挑戰:設計有效且與時俱進認證?產業接受度?成果:成功推行基礎認證;規劃貼近市場需求專業認證。
* **成功要素與失敗原因:** 貼合產業需求;與國家政策一致。
### 四、學習與成長
* **(講者提出框架)** 定位自身 AI 人才目標;選合適學習路徑/認證;持續關注產業趨勢。
### 五、跨領域與合作
* **跨領域整合:** AI + 教育/職業認證、AI + 人資/人才發展、AI + 國家科技政策。
* **產學合作或業界連結:** AIA (教育/研究) 需與產業合作了解需求;與政府對接符合國家方向。
### 六、趨勢與未來展望
* **未來科技趨勢:** AI 人才需求分層化專業化;標準化技能認證受重視;終身學習成必需。
* **機會與風險:** 提供清晰學習發展路徑;提升人才市場匹配效率。風險:認證內容可能過時;過度強調認證忽略實力。
* **新興領域或技術:** 特定 AI 應用場景 (行政、SDLC、行銷) 專業人才認證。
### 七、個人啟發與行動
* **主要啟發:** AI 人才發展需系統規劃分級;AIA 正建體系;個人學習應結合職涯目標市場需求。
* **可行行動:** 評估自身 AI 水平;關注/考慮參加 AIA 認證;在組織內推廣 AI 素養培訓。
* **進一步探索:** AIA 網站認證資訊;國科會 AI 科技島計畫文件。
---