# 1. 機器學習的基本概念 機器學習的核心目標是學會一個函式,這個函式可以把「輸入資料」轉換成「輸出結果」。透過機器學習,我們可以從資料中自動學習規則,找出資料輸入與輸出之間的對應關係函式。 # 2. 深度學習與神經網路 深度學習是一種機器學習的方法,是一套可以統一處理多種問題的萬用工具,透過「深層神經網路(Deep Neural Network, DNN)」來表示函式。 神經網路本質上是一個可調整參數的函式,能接受不同形式的資料,並輸出對應結果。以下為常見的輸入類型與對應任務: | 輸入形式 | 應用範例 | 輸出類型 | 任務類型 | | ------ | ----------- | --------- | ------ | | 向量 | 個人資料、天氣資料 | 數值 | 回歸任務 | | 向量 | 郵件內容(轉換為向量) | 類別(垃圾/正常) | 分類任務 | | 圖像(矩陣) | 臉部辨識 | 類別(人名) | 圖像分類 | | 文字序列 | 語音、翻譯、摘要 | 文字/語句 | NLP 任務 | ## 2.1. 監督式學習(Supervised Learning) 監督式學習的核心思想是:從成對的輸入資料與標籤中學習,找出一個函式 𝑓(𝑥)=𝑦,能將輸入𝑥正確對應到輸出𝑦。而這些有標註的資料,稱為 ground truth,是監督式學習訓練模型的依據。 監督式學習雖然簡單、直覺,卻也面臨許多問題。其過度依賴大量標註資料,且對於專業知識標註更難取得(例如:醫學影像、法律文件),限制了它的可擴展性。 ## 2.2. 自監督學習(Self-Supervised Learning) 自監督學習的核心精神是:「先讓機器學會基本能力,再進行特定任務的學習」,透過預訓練機制有效解決資料標註成本問題。搭配 Foundation Models,可快速應用於多元任務。 ### 2.2.1. 預訓練(Pretraining) 預訓練利用資料內部的結構設計訓練任務(如:讓模型預測遮蔽詞、判斷圖像是否鏡像翻轉等),不需要人工標註,只需原始資料即可完成學習。這些基礎能力會被轉移至後續的分類、辨識、生成任務中,提升準確率與穩定性。以下列舉幾個例子: | 預訓練任務類型 | 模型學到的能力 | | ------------------ | -------------- | | 判斷圖像是否為左右翻轉 | 圖像辨識中的對稱結構判斷能力 | | 分辨不同顏色但相同內容的圖像是否相同 | 抽象特徵識別與不變性辨別 | | 判斷音訊片段是否來自同一個說話者 | 聲紋特徵提取與辨識能力 | ### 2.2.2. Foundation Models(基礎模型) Foundation Models 類似「作業系統」的角色,幫助應用層減少開發成本。其已學習通用能力,可被廣泛應用於各種下游任務。 ## 2.3. 強化學習(Reinforcement Learning) 強化學習的本質是:從結果的成敗中學習行為策略。其與監督式學習不同,不依賴每個輸入的標準答案,目標是讓機器透過「試錯學習」與「回饋訊號」找到最佳決策策略。以下為核心元素: | 元素 | 說明 | | ---------- | ---------------------- | | 狀態(State) | 當前環境的資訊,例如棋盤、畫面、機器人位置等 | | 行動(Action) | 系統可以採取的行動,例如下棋、移動、選擇等 | | 獎勵(Reward) | 每次行動後所獲得的回饋訊號,用以衡量成效 | | 策略(Policy) | 決定在各種狀態下要採取哪種行動的學習結果 | 強化學習的優點是適用於回合式決策問題、遊戲、控制系統、自駕車等領域。可以在無需明確標籤的情況下學習出高效策略。缺點是訓練不穩定,需要大量嘗試與時間來獲得足夠的回饋,難以應對過於複雜的任務。 強化學習適合那些「無法標註每個輸入行為是否正確,但可以衡量最終表現」的任務,是建立自主學習與策略決策系統的重要方法。 # 3. 機器學習的挑戰與新興方向 以下為三個現代機器學習研究中的重要挑戰與發展方向: | 挑戰類型 | 目的與功能 | | ------- | ----------------------- | | 異常檢測 | 辨識從未見過的輸入資料,提升模型謹慎性與可靠度 | | 可解釋性 AI | 了解模型決策的依據,發現潛在偏誤,增進人機信任 | | 對抗性攻擊防禦 | 增強模型在惡意輸入下的穩定性與實用性 | ## 3.1. 異常檢測(Anomaly Detection) 異常檢測讓模型具備「拒絕回答」與「不過度自信」的能力,是提升模型可靠性的關鍵。 模型要能夠說出:「我不知道這是什麼」,而不硬套既有類別,類似人類遇到陌生事物時會保持保留判斷。 ## 3.2. 可解釋性 AI(Explainable AI, XAI) 可解釋性 AI 可以幫助我們發現模型學錯重點或過擬合背景,是 AI 系統可信度的關鍵。以下舉例: 訓練一個分類器,使模型判斷圖片「是寶可夢還是數碼寶貝」。而最終結果中,模型在沒看過的新資料上準確率居然高達 98.4%。 接著,使用 Grad-CAM 或 LIME 等可解釋性工具分析,發現模型在判斷數碼寶貝時,注意的是圖片四角,而在判斷寶可夢時,注意的是透明背景。 可見此模型學到的其實是圖檔格式與背景顏色,而不是角色本體。訓練失敗。 ## 3.3. 對抗性攻擊(Adversarial Attack) 那些被設計來誤導模型的輸入,稱為對抗樣本(Adversarial Examples)。雜訊極小,但對模型影響巨大。以下舉例: 在一張原本被判定為「貓」的圖片中加入人眼都看不見的雜訊後,模型卻誤判成完全無關的「海星」類別。 # 4. 模型壓縮(Model Compression) 現代神經網路模型動輒數百 MB、上億參數,難以部署在手機、手錶等邊緣裝置上。而模型壓縮是讓 AI 進入實際場景(特別是邊緣設備)的關鍵,被廣泛應用於:智慧手機中的影像辨識、穿戴裝置中的健康監測、自駕車即時決策模組。以下為技術說明: | 技術名稱 | 說明 | | ---------------------------- | ------------------------------------------ | | 知識蒸餾(Knowledge Distillation) | 將大模型的「知識」轉移給小模型(教師 → 學生) | | 權重剪枝(Pruning) | 移除模型中不重要的連接與參數,減少運算與空間需求 | | 參數量化(Quantization) | 將浮點數轉換為低位元整數(如 32-bit → 8-bit),降低模型大小與推論延遲 | # 5. 分布偏移(Distribution Shift) 多數機器學習模型的假設是:訓練資料與測試資料來自同樣的分布。然而實務中經常出現分布差異,導致模型效能大幅下降。 解法為Domain Adaptation(領域適應):調整模型以適應新來源資料的特性,與Robust Training(穩健訓練):讓模型能容忍輸入資料的變動。 # 6. Lifelong Learning 一般機器學習模型在學習新任務時,容易遺忘舊任務的知識。這種現象稱為:災難性遺忘(Catastrophic Forgetting)。Lifelong Learning 的目標是模仿人類的學習機制,即不斷吸收新知識並同時保留舊知識。 解法包括保留部分舊資料(Replay-based)與對舊任務加強記憶的正則化方法(如 EWC)。 # 7. Meta Learning Meta Learning 的核心理念是:「不只是學習,而是讓機器學會如何學習」。模型能從多個任務中提取共通經驗,並快速適應新任務。以下為傳統機器學習與Meta Learning的對比: | 傳統機器學習 | Meta Learning | | ------------- | -------------------- | | 人類設計學習規則,模型照做 | 機器主動發現學習策略 | | 每個任務需從頭開始訓練 | 利用以往經驗快速適應新任務 | | 通常需要大量資料與時間 | 支援少量樣本快速學習(Few-shot) | ## 7.1 Few-shot Learning Few-shot Learning 是Meta Learning 的應用場景之一,只需極少樣本就能讓模型完成任務。以下舉例: | 應用情境 | 說明 | | ------------ | ------------------ | | 看一兩張圖片就分類新角色 | 模型只需見過幾張就能認識新人物或物種 | | 聽幾句話就辨識新說話者 | 無需大量語音資料即可辨識語者身分 |