# [2025李宏毅ML] 第1講:一堂課搞懂生成式人工智慧的技術突破與未來發展
:::success
:+1: 筆記全集Book 請至: https://hackmd.io/@4j/r1U_UJ_pye/
:::
:::info
2025生成式AI時代下的機器學習_李宏毅
課程網站 https://speech.ee.ntu.edu.tw/~hylee/ml/2025-spring.php
video: https://www.youtube.com/watch?v=QLiKmca4kzI
pdf: https://speech.ee.ntu.edu.tw/~hylee/ml/ml2025-course-data/introduction.pdf
:::
:::spoiler 目錄
[TOC]
:::
請回顧精華片段

"想投影片的內容" 才是最花時間的!!(老師不可取代的地方)

## 思考(Reasoning)
像是腦內小劇場

▪ AI Agent

Deep Research 也有點 AI Agent 的能力
隨著搜尋到的結果不同 改變要搜尋的內容
## 運作機制

==> 複雜物件 由 **有限的**基本單位 構成
多個有限的選擇 可組合成近乎無窮的可能
基本單位可能是文字、像素、取樣點等 token

策略:根據固定的次序每次只產生一個 yi
稱作 **Autoregressive Generation** (像文字接龍)

給一串token, 決定下一個token(的機率分佈)(選擇題)
也可把多模態的 token 集合起來生成
▪ 怎麼決定下一個 token
答案往往不是唯一
故讓他產生機率分布 再去擲骰子決定答案(每次輸出可能不同)

深度學習:多個Layer


==深度學習==:像是把 複雜問題 拆解成簡單問題(多個步驟)
反而更有效率
ref: https://www.youtube.com/watch?v=KKT2VkTdFyc

困難的問題需要思考很多步,Layer 不夠
==> **深度不夠,長度來湊** (Testing Time Scaling)


一個layer裡有很多小layer,有考慮 全局/單點 的
==**Self-attention Layer**==: 產生輸出時,會考慮全部的輸入

含有 Self-attention Layer 的 通常稱為 **Transformer**

▪ Transformer 的限制?
輸入無法太長 運作會有問題
出現改良版的架構 ==> **Mamba**

## 運作機制是怎麼產生出來的

▪ **架構 architecture**
超參數 (hyperparameter) <-- 所謂的調參數
由開發者(人類)決定 天生資質
▪ **參數 parameter**
由訓練資料決定 後天學習

尋找能讓 𝑓𝜃 最能滿足 訓練資料的參數𝜃
### 通用機器學習模型
"通用" 在歷史上有不同的含義

▪ **通用機器學習模型:第一型態 (2018-2019)**
僅是個 decoder, 無法直接用
後面需要再外掛一個特化模型才能達到目的
ex: 芝麻街家族模型

▪ **通用機器學習模型:第二型態 (2020-2022)**
有完整的文字生成功能 但無法用指令操控他
需再微調一下參數
把模型用在不同任務上屬於: 架構相同、參數不同

▪ **通用機器學習模型:第三型態 (2023)**
用在不同任務上時,不需再做模型的調整,直接下指令即可

回顧 ref:
Pre-train https://youtu.be/cCpErV7To2o?s
Fine-tune https://youtu.be/Q9cNkUPXUB8?s
RLHF https://youtu.be/v12IKvF6Cj8?
## 怎麼賦予新的能力
機器的終身學習(Life-long Learning)時代


prompt的調整(給他需求資訊)
此種模型的參數是固定的
不會永遠改變行為 (一旦移除指令 他就會復原)

若希望他永久具備新技能 --> 就需 **改變參數**
▪ **微調(fine-tune)**
要注意可能使原始能力下降 不是個容易事
是最後的手段!
(提醒:應該先確定不微調就無法具備目標能力,才選擇微調)

ChatGPT有介面可輸入資料 微調參數
https://platform.openai.com/docs/guides/fine-tuning

微調 可能使模型原始的能力錯亂
Q:我們只想要改基礎模型的一個小地方 有必要麻煩到去微調參數嗎?

▪ **模型編輯(Model Editing)/ 類神經網路編輯**
直接找出有關的參數 人工手動修改!
ref: 第八講 作業八

▪ **Model Merging**
在沒有訓練資料下 直接合體兩個模型的能力
ref: 第九講 作業九

-- END --