# https://g.co/gemini/share/70ec965c4880
# L111 人工智慧概念
1. 下列何者最能概括人工智慧(AI)的核心目標? (A) 專注於開發能夠自我修復的硬體系統 (B) 旨在模擬人類智慧,使機器執行原本需要人類智慧的任務 (C) 僅限於處理數值型資料和預定義的規則 (D) 主要目的是完全取代人類的決策過程
:::spoiler **答案**
B
:::
2. 人工智慧依照功能可分為分析型AI、預測型AI與生成型AI。下列何者是「生成型AI」的應用特徵? (A) 主要用於洞悉數據模式並提供見解 (B) 基於歷史資料預測未來的趨勢和行為 (C) 可根據使用者輸入的提示詞生成多類素材 (D) 擅長識別和分類現有數據中的模式
:::spoiler **答案**
C
:::
3. 在企業營運中,人工智慧的應用通常集中於幾個主要目標。下列何者「不是」AI主要目標之一? (A) 提高效率 (B) 增強決策能力 (C) 降低市場競爭 (D) 促進創新
:::spoiler **答案**
C
:::
4. 人工智慧在醫療保健領域的應用實例。下列何者屬於該領域的AI應用? (A) 透過AI模型分析用戶信用記錄進行風險評估 (B) 運用影像辨識技術檢測產品缺陷 (C) 利用AI分析醫學影像輔助醫師進行精準診斷 (D) AI分析歷史交通數據提供動態交通管理
:::spoiler **答案**
C
:::
5. 在人工智慧的多層次實現架構中,技術底層扮演著關鍵角色。下列何者「不」屬於技術底層所提供的要素? (A) 資料處理與分析 (B) 核心演算法 (C) 機器學習 (D) 最終產品行銷策略
:::spoiler **答案**
D
:::
6. 人工智慧(AI)、機器學習(ML)與深度學習(DL)之間的關係為何? (A) 機器學習是人工智慧的一個子集,而深度學習是機器學習的一個子領域 (B) 深度學習是人工智慧的一個子集,而機器學習是深度學習的一個子領域 (C) 人工智慧、機器學習和深度學習是三個相互獨立的概念 (D) 機器學習和深度學習是實現人工智慧的唯一方法
:::spoiler **答案**
A
:::
7. 關於弱人工智慧(Weak AI)的特性,下列敘述何者較為正確? (A) 具備完整的人類認知能力,能夠像人類一樣學習和創造知識 (B) 只能處理特定的問題,不需要具備人類完整的感官認知能力 (C) 已達到人類智慧的完整能力,能解決所有領域的複雜問題 (D) 主要用於預測未來的市場趨勢,不涉及人機互動
:::spoiler **答案**
B
:::
8. Siri、Alexa、Google語音助手等虛擬助理,主要屬於哪一類人工智慧? (A) 強人工智慧 (B) 弱人工智慧 (C) 通用人工智慧 (D) 超級人工智慧
:::spoiler **答案**
B
### **人工智慧的分類與範例**
人工智慧(AI)通常根據其能力和智慧水平,分為不同的類別:
1. **弱人工智慧 (Weak AI) / 狹義人工智慧 (Narrow AI)**
* **定義**:這類 AI 系統專注於執行特定的、預先定義的任務。它們在特定領域表現出色,但並不具備人類的全面認知能力、意識或自主學習通用知識的能力。它們的「智慧」僅限於其設計的特定功能範圍內。
* **範例**:
* **虛擬助理**:如 **Siri、Alexa、Google 語音助手**。它們可以回答問題、設定提醒、播放音樂、控制智慧家居設備等,但它們的理解和互動是基於程式設計和大量資料訓練而來,不具備真正的「理解」或「意識」。
* **推薦系統**:如 Netflix 的電影推薦、Amazon 的商品推薦。
* **圖像識別和人臉辨識系統**:用於圖片分類或身份驗證。
* **垃圾郵件過濾器**。
* **AlphaGo**:雖然在圍棋領域擊敗了人類頂尖選手,但其智慧僅限於圍棋遊戲本身。
2. **強人工智慧 (Strong AI)**
* **定義**:這是一個較為廣泛的哲學概念,通常指具備人類完整認知能力、甚至意識的 AI 系統。它暗示 AI 能夠真正理解、思考、學習並將智慧應用於任何人類可以做到的任務。強人工智慧是通用人工智慧的一種更高層次的表達。
* **範例**:
* 目前,**強人工智慧尚未在現實中實現**。它更多地出現在科幻小說和電影中,例如能夠像人類一樣進行對話、感受情緒並獨立思考的機器人。
3. **通用人工智慧 (Artificial General Intelligence - AGI)**
* **定義**:指一種能夠像人類一樣,具備執行任何智慧任務的能力的 AI。AGI 能夠學習任何智力任務,並應用知識解決各種未經訓練的新問題,具備跨領域的學習和推理能力。它是強人工智慧的一個更具體的技術目標。
* **範例**:
* **通用人工智慧目前也尚未實現**。這是許多 AI 研究人員的長期目標。如果實現,它將能夠像人類一樣思考、理解、規劃和解決各種複雜問題。
4. **超級人工智慧 (Artificial Superintelligence - ASI)**
* **定義**:指智慧水平遠遠超越最聰明人類的 AI 系統。ASI 不僅能在所有認知領域超越人類,還能在科學研究、藝術創作、社會管理等任何方面達到前所未有的高度。
* **範例**:
* **這是一個高度假想和未來化的概念**,目前在現實中**完全不存在**。它通常被討論為 AI 發展的最終階段,可能會對人類社會產生深遠影響。
:::
9. 人工智慧的發展突飛猛進,近十年來主要得益於哪些方面的進步? (A) 僅限於演算法的精進 (B) 軟硬體技術、計算能力提升、開放資料普及、數據多樣性與品質增長 (C) 主要依賴於哲學理論的突破 (D) 僅與大數據的累積有關,與硬體無關
:::spoiler **答案**
B
:::
10. 人工智慧在製造業的應用案例包含哪些? (A) 疾病診斷與藥物研發 (B) 風險評估與欺詐檢測 (C) 自動化生產、品質控制與預測性維護 (D) 遊戲開發與虛擬現實
:::spoiler **答案**
C
:::
11. 人工智慧(AI)在其「技術底層」中,演算法扮演的角色為何? (A) 僅用於儲存與整合數據 (B) 為AI的邏輯基石,用於解決問題及提供決策支援 (C) 主要負責資料的清理與預處理 (D) 專門用於AI模型的訓練與預測
:::spoiler **答案**
B
### **演算法在 AI 技術底層的角色**
在人工智慧的「技術底層」中,**演算法(Algorithms)**扮演著極其核心且基礎的角色。它可以被視為 AI 系統的「大腦」和「行動指南」。
* **定義**:演算法是一組明確定義的指令或步驟序列,用於解決特定問題或執行特定任務。在 AI 領域,這些演算法指導電腦如何處理數據、學習模式、做出決策、進行推理或執行各種智慧行為。
* **「邏輯基石」**:演算法為 AI 提供了運作的邏輯框架。無論是簡單的規則判斷,還是複雜的機器學習模型,其內核都是由各種演算法所構築。它們定義了 AI 如何從輸入到輸出,如何學習,以及如何回應環境。
* **解決問題與決策支援**:從底層來看,AI 存在的目的就是為了自動化地解決人類遇到的問題,或輔助人類做出更優的決策。演算法正是實現這些目標的手段。例如,搜尋演算法用於找到最佳路徑,分類演算法用於將數據歸類,優化演算法用於調整模型參數以提升性能。
---
### **D 選項「專門用於 AI 模型的訓練與預測」錯誤在哪邊?**
選項 (D) **「專門用於 AI 模型的訓練與預測」** 是不正確的,主要原因在於「**專門用於**」這個詞的限制性過強,以及對演算法角色理解的片面性:
1. **演算法的範疇遠超機器學習的訓練與預測**:
* **AI 不僅僅是機器學習**:人工智慧是一個廣泛的領域,機器學習(特別是深度學習)是其中一個非常重要且目前熱門的分支。除了機器學習,AI 還包括符號 AI、專家系統、搜尋演算法、規劃演算法、知識表示與推理等。這些非機器學習的 AI 領域同樣離不開演算法,但它們可能不涉及「模型訓練」或「預測」的直接概念。
* **演算法存在於 AI 的各個環節**:即使在機器學習的範疇內,演算法也參與了數據預處理、特徵工程、模型評估、優化等許多環節。訓練和預測只是整個流程中的兩個重要步驟。例如,用於數據降維的 PCA 演算法、用於聚類的 K-Means 演算法、用於優化模型參數的梯度下降演算法,它們都是演算法,但作用不僅限於最終的「訓練」和「預測」。
2. **「專門用於」過於絕對**:
* 「專門用於」暗示演算法的唯一或主要用途就是模型訓練和預測。然而,演算法是所有計算機科學和 AI 的基石,其應用無處不在,包括但不限於:
* **搜尋和規劃**:如 A\* 搜尋演算法用於路徑規劃。
* **邏輯推理**:如專家系統中的推理引擎。
* **數據結構操作**:如排序、查找演算法。
* **優化問題**:尋找最佳解的演算法。
因此,選項 (D) 雖然描述了演算法在機器學習中一個非常重要的應用,但它並未能全面涵蓋演算法在整個 AI 技術底層所扮演的廣泛且基礎的角色,特別是被「專門用於」這一限制詞所束縛。選項 (B) 更為精確地概括了演算法作為 AI 邏輯基石的本質。
---
:::
12. 關於強人工智慧(Strong AI)目前發展的現況,下列敘述何者較為正確? (A) 目前大多數人工智慧的應用都屬於強人工智慧範疇 (B) 強人工智慧已廣泛應用於日常生活中,例如智慧型手機助理 (C) 接近人類智慧,但目前仍未真正出現 (D) AlphaGo是一個典型的強人工智慧範例,已完全達到人類智慧的完整能力
:::spoiler **答案**
C
:::
13. 近年來生成型AI快速發展,其主要特徵之一是什麼? (A) 透過分析大量數據以提供有價值的見解 (B) 能夠基於歷史資料預測未來的趨勢 (C) 能夠根據使用者輸入的提示詞(prompt)生成各類素材 (D) 專注於區分不同類別之間的差異
:::spoiler **答案**
C
:::
14. 人工智慧在金融領域的應用通常聚焦於哪些目標? (A) 藥物研發與個人化醫療 (B) 風險評估、欺詐檢測與自動交易 (C) 自動化生產與品質控制 (D) 自動駕駛與交通流量預測
:::spoiler **答案**
B
:::
15. 在人工智慧的發展中,「數據的多樣性、品質與規模增長」扮演了什麼角色? (A) 阻礙了AI的發展 (B) 對AI發展沒有顯著影響 (C) 促進了AI的突飛猛進 (D) 僅影響AI的應用範圍,不影響其發展速度
:::spoiler **答案**
C
:::
16. 負責任人工智慧(Responsible AI)的核心原則旨在防止AI系統引發哪些潛在的負面影響? (A) 僅限於技術故障問題 (B) 社會不公、歧視、隱私侵害 (C) 專注於提高運算速度 (D) 僅關乎學術研究中的倫理規範
:::spoiler **答案**
B
:::
17. 負責任人工智慧的「可靠性和安全性」原則要求AI系統具備什麼能力? (A) 能夠自動修復所有錯誤而無需人工干預 (B) 以可靠、安全且一致的方式運作,並能安全地回應非預期的狀況 (C) 優先處理高風險任務,犧牲低風險任務的穩定性 (D) 僅在實驗室環境中確保其安全性
:::spoiler **答案**
B
:::
18. 關於負責任人工智慧(Responsible AI)中的「隱私權與保密性」原則,下列敘述何者較為正確? (A) AI系統數據必須儲存於本地伺服器 (B) 強調資料收集、使用及儲存相關的透明度,並要求使用者具有適當控制權 (C) 禁止AI系統收集任何個人數據 (D) 僅允許政府機構存取AI系統中的敏感數據
:::spoiler **答案**
B
:::
19. 負責任人工智慧的「包容性」原則主要考慮哪些面向? (A) 僅限於技術效能的提升 (B) 應考慮所有人類和體驗,避免歧視,並主動促進機會均等 (C) 優先服務於對社會貢獻最大的群體 (D) 主要確保AI系統的程式碼完全公開
:::spoiler **答案**
B
:::
20. 負責任人工智慧的「透明度」原則,其核心目標是什麼? (A) 確保AI系統的程式碼完全公開 (B) 讓使用者能夠充分理解AI系統的用途、工作原理及其局限性 (C) 使AI系統的決策過程完全由人類控制 (D) 僅提供AI系統的最終預測結果
:::spoiler **答案**
B
:::
21. 負責任人工智慧的「責任」原則強調誰應該對AI系統的行為和決策負責? (A) AI系統本身應對其行為結果負責 (B) AI系統的設計和部署人員應對其運作方式負責 (C) 只有AI系統的使用者需承擔所有風險 (D) 責任原則僅適用於學術研究中的AI系統
:::spoiler **答案**
B
:::
22. 歐盟《人工智慧法案》(AI Act)的核心目標之一是什麼? (A) 鼓勵未經審核的AI系統廣泛應用 (B) 確保AI技術在發展和應用過程中對公民健康、安全和基本權利造成最大威脅 (C) 促進創新和競爭力,同時保護公民權益 (D) 消除所有對AI技術的監管
:::spoiler **答案**
C
---
歐盟《人工智慧法案》(AI Act)的核心目標之一是什麼?
答案是 **(C) 促進創新和競爭力,同時保護公民權益**。
---
### **歐盟《人工智慧法案》(AI Act)的核心目標**
歐盟《人工智慧法案》(EU AI Act)是世界上第一個全面規範人工智慧的法律框架,其核心目標是建立一個**平衡且負責任的 AI 發展環境**。它旨在達成多重目標,而非單一面向:
1. **確保 AI 系統在歐盟市場上的安全性和合規性**:
* 這是法案的首要目標。透過對不同風險等級的 AI 系統施加不同的義務和要求(如高風險 AI 需進行嚴格的合格評定、風險管理、人為監督等),確保 AI 產品和服務不會對公民的健康、安全和基本權利造成傷害。
2. **保護公民的基本權利和民主價值**:
* 法案特別關注 AI 對隱私、非歧視、言論自由、民主進程等基本權利的潛在影響。例如,禁止「不可接受風險」的 AI 系統,並對高風險 AI 施加透明度和人為監督的要求,以防止濫用。
3. **促進 AI 的創新和投資,並提升歐盟在全球 AI 領域的領導地位**:
* 儘管該法案具有監管性質,但其目的並非抑制創新。相反,歐盟希望透過建立一個明確且可信賴的法律框架,為企業提供確定性,鼓勵負責任的 AI 創新。一個值得信賴的 AI 環境,反而能吸引更多投資,提升歐盟在全球 AI 競爭中的地位。
4. **建立一個統一的歐盟內部市場**:
* 透過統一的規則,法案旨在消除各成員國之間可能存在的法律差異,從而降低企業的合規成本,促進 AI 系統在歐盟內部市場的自由流通。
5. **為未來的 AI 治理提供典範**:
* 作為全球首部全面的 AI 法律,歐盟《人工智慧法案》也希望為其他國家和地區在 AI 監管方面提供一個可參考的模式。
### **選項分析**
* **(A) 鼓勵未經審核的 AI 系統廣泛應用**:
* **不正確。** 法案的核心就是建立審核和監管機制,以確保 AI 系統的安全性,鼓勵未經審核的系統與其宗旨完全相反。
* **(B) 確保 AI 技術在發展和應用過程中對公民健康、安全和基本權利造成最大威脅**:
* **不正確。** 這與法案的保護公民權益、確保安全的目標完全背道而馳,是法案要積極避免的結果。
* **(C) 促進創新和競爭力,同時保護公民權益**:
* **正確。** 這精確地概括了歐盟 AI Act 的雙重目標:在確保安全和基本權利得到保護的前提下,鼓勵 AI 技術的健康發展和應用。
* **(D) 消除所有對 AI 技術的監管**:
* **不正確。** 法案的本質就是一套詳細的監管框架,旨在對 AI 實施有針對性的管理,而非消除監管。
---
:::
23. 根據中華民國生成式AI參考指引(草案),下列何者是其核心原則之一? (A) 數據完全公開化,不設任何限制 (B) 責任與問責,強調業務承辦人對AI產出資訊的最終判斷 (C) 僅考慮效率提升,不考慮潛在風險 (D) 允許AI系統完全取代人類的自主思維
:::spoiler **答案**
B
:::
24. 在企業評估是否導入AI應用時,「評估企業需求和現狀」這個環節主要涵蓋哪些內容? (A) 僅評估硬體設備與網路設施 (B) 了解企業的目標和挑戰,並識別主要的挑戰和痛點 (C) 專注於分析員工的程式設計能力 (D) 僅進行AI解決方案的成本預估
:::spoiler **答案**
B
:::
25. 企業在評估導入AI應用時,關於「數據品質」的考量點不包括下列何者? (A) 數據完整性(沒有遺漏或缺失) (B) 數據一致性(在不同系統中是否一致) (C) 數據準確性(數據是否準確和真實) (D) 數據儲存成本的高低
:::spoiler **答案**
D
:::
26. 在AI風險管理中,「風險緩解」的主要目的是什麼? (A) 忽略潛在風險,繼續推動專案 (B) 識別潛在風險後,採取措施降低其可能性或影響 (C) 將所有風險責任轉移給第三方 (D) 完全消除所有風險
:::spoiler **答案**
B
### **AI 風險管理簡介**
隨著人工智慧技術的快速發展和廣泛應用,AI 系統所帶來的潛在風險也日益受到關注。**AI 風險管理**是一個系統性的過程,旨在識別、評估、緩解、監控和溝通與 AI 系統相關的潛在危害。其核心目標是確保 AI 系統的負責任開發和部署,最大程度地減少負面影響,同時實現其預期效益。
**AI 風險管理的主要步驟通常包括:**
1. **風險識別 (Risk Identification)**:
* 識別 AI 系統在設計、開發、部署和運營的各個階段可能產生的所有潛在危害和負面後果。這包括技術風險(如模型漂移、數據偏差)、操作風險(如誤用、惡意攻擊)、倫理風險(如歧視、隱私侵犯)、法律合規風險等。
2. **風險評估 (Risk Assessment)**:
* 對已識別的風險進行分析和評估,確定其發生的可能性(Likelihood)和一旦發生所造成的影響(Impact/Severity)。這通常會對風險進行分級,以確定哪些風險是高優先級需要優先處理。
3. **風險緩解 (Risk Mitigation)**:
* **目的**:這是 AI 風險管理的核心環節。在識別和評估潛在風險之後,**風險緩解的主要目的是採取積極的措施和策略,以降低這些風險發生的可能性,或者一旦發生時,減少其所造成的負面影響和損失**。它不追求完全消除所有風險(這通常不切實際),而是將風險控制在可接受的水平。
* **常見策略**:
* **技術層面**:改進模型設計以減少偏見、增強數據隱私保護技術、建立穩健的模型監控機制、實施安全防護措施防止網路攻擊。
* **流程層面**:建立嚴格的模型驗證和部署流程、引入人工監督和干預點、制定應急響應計畫。
* **組織層面**:制定明確的倫理準則、進行員工培訓、建立問責機制。
4. **風險監控與審查 (Risk Monitoring & Review)**:
* AI 系統和其運作環境是動態變化的,因此風險管理是一個持續的過程。需要定期監控 AI 系統的表現、重新評估現有風險、識別新的風險,並審查風險緩解策略的有效性,以確保其持續適用。
5. **風險溝通與透明度 (Risk Communication & Transparency)**:
* 向內部和外部利益相關者透明地溝通 AI 系統的潛在風險、所採取的緩解措施以及其表現,有助於建立信任和理解。
---
### **選項分析**
* **(A) 忽略潛在風險,繼續推動專案**:
* **不正確。** 這是風險管理的反面,將導致專案面臨巨大的不確定性和潛在的負面後果。
* **(B) 識別潛在風險後,採取措施降低其可能性或影響**:
* **正確。** 這正是風險緩解的核心定義和目的。它是一個積極主動的步驟,旨在應對已知的風險。
* **(C) 將所有風險責任轉移給第三方**:
* **不正確。** 風險轉移(例如購買保險、外包風險管理)是風險管理策略之一,但它不是風險緩解的主要目的,也不是所有風險都能或應該轉移。風險緩解更側重於主動降低風險本身。
* **(D) 完全消除所有風險**:
* **不正確。** 在複雜的 AI 系統中,完全消除所有風險幾乎是不可能的,也是不切實際的目標。風險管理旨在將風險降低到可接受的水平,並進行有效管理。
---
:::
27. 當企業將資料安全管理外包給第三方服務供應商時,這屬於AI風險管理中的哪種策略? (A) 風險緩解 (B) 風險轉移 (C) 風險接受 (D) 風險規避
:::spoiler **答案**
B
:::
28. 在生成式AI應用中,若欲確保資料隱私與安全,建議採取何種措施? (A) 僅使用未經處理的原始數據 (B) 採用資料加密、匿名化與權限控管機制 (C) 僅依靠模型自動偵測敏感資訊 (D) 完全公開訓練數據以增強透明度
:::spoiler **答案**
B
:::
29. 企業在導入AI的「構想階段」中,「確定應用領域優先順序」的目的是什麼? (A) 進行大規模的模型訓練與部署 (B) 收斂出優先導入的AI項目 (C) 建立AI系統的績效指標 (D) 僅考慮技術難度,不考慮業務效益
:::spoiler **答案**
B
:::
30. 在企業評估導入AI應用的「員工技能」方面,除了程式設計能力外,還應考慮哪些內容? (A) 僅評估員工對新技術的接受度 (B) 員工是否具備基本的AI知識、實踐經驗和進階技能 (C) 僅評估員工的溝通能力和團隊合作精神 (D) 員工技能與AI導入無關
:::spoiler **答案**
B
:::
# L112 資料處理與分析概念
1. 在人工智慧(AI)領域中,資料被視為什麼樣的核心? (A) AI模型的輔助工具 (B) AI系統的外部介面 (C) AI運作的基礎 (D) AI應用的最終成果
:::spoiler **答案**
C
:::
2. 隨著近年來軟硬體技術的進步,數據在人工智慧發展中呈現出哪些增長趨勢? (A) 僅限於數據量的增加 (B) 數據多樣性、品質與規模的增長 (C) 數據處理速度的放緩 (D) 數據儲存成本的上升
:::spoiler **答案**
B
:::
3. 大數據(Big Data)的「數據真實性」(Veracity)特性主要強調什麼? (A) 數據產生的速度 (B) 數據種類的豐富性 (C) 數據的準確性和可靠性 (D) 數據的總量大小
:::spoiler **答案**
C
:::
4. 在大數據的五個「V」特性中,描述數據生成和處理速度的特徵是哪一項? (A) Volume (數據量) (B) Variety (數據多樣性) (C) Velocity (數據速度) (D) Value (數據價值)
:::spoiler **答案**
C
:::
5. 數值型資料、文字資料和圖像資料分別代表了資料的哪一種特性? (A) 數據量 (Volume) (B) 數據速度 (Velocity) (C) 數據多樣性 (Variety) (D) 數據真實性 (Veracity)
:::spoiler **答案**
C
:::
6. AI模型的訓練和應用高度依賴於大量且高品質的資料,這說明了資料在AI發展中的哪種重要性? (A) 輔助性角色 (B) 核心支柱地位 (C) 次要考量因素 (D) 僅限於最終呈現
:::spoiler **答案**
B
:::
7. 在大數據的特性中,「數據價值」(Value)主要關注的是什麼? (A) 數據量的大小 (B) 數據的儲存成本 (C) 數據的有用性與可操作性 (D) 數據收集的難易度
:::spoiler **答案**
C
:::
8. 下列何者不屬於「大數據」時代中資料常見的型態與結構? (A) 數值型資料 (B) 文字資料 (C) 圖像資料 (D) 虛擬資料
:::spoiler **答案**
D
:::
9. 開放資料普及對於人工智慧的發展帶來了什麼樣的影響? (A) 限制了AI技術的應用範圍 (B) 加速了AI的發展突飛猛進 (C) 增加了AI模型的運算負擔 (D) 降低了數據的多樣性
:::spoiler **答案**
B
:::
10. 人工智慧(AI)的核心在於數據,資料處理包括數據清理、整合、儲存及分析,這段描述突顯了數據在AI技術底層的哪種功能? (A) 僅作為輸入來源 (B) 提供必要的計算能力 (C) 提供數據支撐與核心演算法基礎 (D) 主要用於決策支援
:::spoiler **答案**
C
:::
11. 在AI模型訓練前,資料處理是一個不可或缺的步驟。下列何者是資料處理的首要環節? (A) 數據標準化 (B) 特徵選擇 (C) 數據清洗 (D) 降維
:::spoiler **答案**
C
:::
12. ETL(Extract, Transform, Load)流程在資料處理與分析中扮演什麼角色? (A) 僅負責數據儲存 (B) 負責數據的提取、轉換與載入 (C) 主要用於數據可視化 (D) 專門用於模型訓練
:::spoiler **答案**
B
---
## 什麼是 ETL(Extract, Transform, Load)?
ETL 是一個在資料倉儲(Data Warehouse)和資料分析中非常重要的流程,它的核心作用是將來自不同來源的資料,經過處理後載入到目標系統中。ETL 這個詞分別代表了三個步驟:提取(Extract)、轉換(Transform)和載入(Load)。
### 1. 提取 (Extract)
* **定義:** 從各種異構的資料來源中讀取資料。這些來源可以是資料庫(如關聯式資料庫、NoSQL 資料庫)、檔案(如 CSV、XML、JSON)、應用程式介面(API)等等。
* **目的:** 獲取原始資料,為後續的轉換和載入做準備。這個階段通常需要考慮資料來源的複雜性、資料量的大小以及提取的頻率。
### 2. 轉換 (Transform)
* **定義:** 對提取出來的原始資料進行清洗、整合、驗證和轉換,使其符合目標系統的需求和資料模型。這是 ETL 流程中最複雜也最關鍵的階段。
* **常見的轉換操作:**
* **清洗 (Cleaning):** 處理缺失值、重複值、錯誤資料或不一致的資料。
* **標準化 (Standardization):** 將不同格式的資料統一成標準格式。
* **整合 (Integration):** 將來自不同來源的相關資料合併在一起。
* **聚合 (Aggregation):** 對資料進行匯總,例如計算總和、平均值等。
* **豐富化 (Enrichment):** 加入額外的資料來豐富現有資料的內容。
* **去識別化 (Anonymization):** 移除或遮蔽敏感資訊。
* **目的:** 確保資料的品質、一致性和可用性,為分析和報告提供可靠的基礎。
### 3. 載入 (Load)
* **定義:** 將經過轉換的資料寫入到目標系統中,通常是資料倉儲、資料湖(Data Lake)或操作資料庫。
* **載入方式:**
* **全量載入 (Full Load):** 每次都將所有資料重新載入。適用於資料量不大或資料變化不頻繁的情況。
* **增量載入 (Incremental Load):** 只載入自上次載入以來新增或變更的資料。這是更常見且高效的方式,尤其適用於資料量大或需要頻繁更新的場景。
* **目的:** 使資料能夠被最終使用者、報表工具或分析應用程式存取和使用。
---
### ETL 在資料處理與分析中的重要性
ETL 流程是現代資料驅動決策的基石。它確保了企業能夠:
* **集中管理資料:** 將分散在各處的資料匯集到一個地方。
* **提高資料品質:** 透過轉換步驟清洗並標準化資料,減少錯誤和不一致性。
* **支援商業智慧 (BI) 與分析:** 為報表、儀表板和資料分析提供結構化、可靠的資料。
* **優化決策制定:** 基於高品質的整合資料做出更明智的商業決策。
因此,ETL 不僅僅是資料的搬運工,更是資料價值創造的核心環節。
---
希望這個解釋對您有所幫助!如果您對 ETL 的某個特定環節感興趣,或者想了解更多資料處理的資訊,我很樂意繼續討論!
:::
13. 數據清洗(Data Cleaning)的主要目的為何? (A) 增加數據量 (B) 處理數據集中的遺缺值、重複值和異常值 (C) 將數據轉換為數字向量 (D) 選擇適合任務的生成模型
:::spoiler **答案**
B
:::
14. 在資料分析的運作流程中,資料前處理之後的步驟通常是什麼? (A) 資料收集 (B) 資料分析 (C) 資料解釋 (D) 決策應用
:::spoiler **答案**
B
:::
15. 若數據集存在遺缺值,最常見且適用於數值型特徵的處理方法是哪一項? (A) 移除包含遺缺值的記錄 (B) 均值填補 (C) 使用機器學習模型預測填補 (D) 完全忽略遺缺值
:::spoiler **答案**
B
### 為什麼是均值填補?
**均值填補 (Mean Imputation)** 是一種簡單且常用的遺失值處理技術。它的原理是將特徵中所有的遺失值,都替換成該特徵已知的非遺失值的平均數(或稱為均值)。
### 其他選項的考量:
* **(A) 移除包含遺缺值的記錄:**
* **優點:** 簡單直接,確保資料的完整性。
* **缺點:** 可能會導致大量數據丟失,特別是當遺失值分佈廣泛時。這會減少數據量,進而影響模型的訓練效果和泛化能力。
* **(C) 使用機器學習模型預測填補:**
* **優點:** 這是一種更複雜也更精確的填補方法,例如使用 K-NN(K 近鄰)或迴歸模型來預測遺失值。
* **缺點:** 計算成本較高,且模型本身可能會過度擬合(overfit)填補的數據,引入額外的偏差。對於初階或快速分析,通常不是首選。
* **(D) 完全忽略遺缺值:**
* **缺點:** 大部分機器學習演算法無法直接處理遺失值,在遇到遺失值時會報錯或直接跳過該筆資料,導致分析或模型訓練無法進行。即使有些演算法能處理,也可能導致結果不準確。
### 均值填補的優缺點:
* **優點:**
* **簡單易行:** 容易理解和實施。
* **保留數據量:** 不會丟失任何包含遺失值的記錄,因此能保留原始數據集的完整性。
* **計算效率高:** 對於大型數據集來說,計算成本非常低。
* **缺點:**
* **降低變異性:** 將所有遺失值替換為同一個平均值,會導致該特徵的標準差變小,低估了數據的真實變異性。
* **引入偏差:** 如果遺失值並不是隨機分佈的(即遺失的模式與其他變數有關),均值填補可能會引入偏差,影響分析結果的準確性。
* **改變數據分佈:** 可能會使數據分佈變得更集中,影響後續統計分析或機器學習模型的表現。
### 何時使用均值填補?
均值填補通常在以下情況下被考慮:
* 遺失值佔比**非常小**。
* 需要一個**快速且簡單**的解決方案。
* 對數據分佈和變異性的影響可以**接受**。
在實務上,除了均值填補,還有中位數填補(Median Imputation,對異常值更魯棒)和眾數填補(Mode Imputation,適用於類別型特徵)。選擇哪種方法取決於數據集的特性、遺失值的原因以及後續分析或模型的具體需求。
---
:::
16. 下列哪項技術不屬於資料處理與分析流程中的「資料前處理」環節? (A) 資料清洗 (B) 資料轉換 (C) 特徵工程 (D) 模型評估
:::spoiler **答案**
D
:::
17. 在資料分析的完整流程中,模型訓練完成後,通常會進行哪一步驟來驗證其效能? (A) 資料收集 (B) 資料解釋 (C) 模型評估 (D) 數據清理
:::spoiler **答案**
C
### 資料分析的完整流程簡述
一個典型的資料分析流程通常包含以下幾個主要步驟:
1. **問題定義 (Problem Definition):** 明確分析目標和需要解決的問題。
2. **資料收集 (Data Collection):** 從各種來源獲取原始數據。
3. **資料清理 (Data Cleaning):** 處理遺失值、異常值、重複值等,確保數據品質。
4. **資料探索與預處理 (Data Exploration & Preprocessing):** 理解數據特徵、進行特徵工程、數據轉換等。
5. **模型訓練 (Model Training):** 選擇合適的模型演算法,並使用訓練數據集來訓練模型。
6. **模型評估 (Model Evaluation):** 使用未參與訓練的數據來評估模型的效能。
7. **模型部署 (Model Deployment):** 將訓練好的模型應用於實際生產環境。
8. **模型監控與維護 (Model Monitoring & Maintenance):** 持續監控模型效能,並在需要時進行更新。
### 為什麼是模型評估?
在模型**訓練完成**後,我們需要知道這個模型是否真的能夠有效地解決我們定義的問題,以及它在面對**未見過**的數據時表現如何。這就是 **模型評估** 的主要目的。
* **定義:** 使用獨立的測試數據集(或驗證數據集)來衡量模型在預測或分類任務上的表現。
* **目的:**
* **評估泛化能力:** 檢查模型是否能在新數據上表現良好,而不是僅僅在訓練數據上表現好(避免過度擬合)。
* **選擇最佳模型:** 比較不同模型的效能,選擇最適合特定任務的模型。
* **理解模型限制:** 找出模型表現不佳的地方,為後續的優化提供方向。
* **常見的評估指標:**
* **分類模型:** 準確度 (Accuracy)、精確度 (Precision)、召回率 (Recall)、F1 分數 (F1-score)、混淆矩陣 (Confusion Matrix)、ROC 曲線和 AUC 值。
* **迴歸模型:** 均方誤差 (Mean Squared Error, MSE)、均方根誤差 (Root Mean Squared Error, RMSE)、平均絕對誤差 (Mean Absolute Error, MAE)、R-平方 (R-squared) 等。
### 其他選項的考量:
* **(A) 資料收集:** 這是模型訓練之前的步驟,負責獲取原始數據。
* **(B) 資料解釋:** 通常是指對模型結果或數據洞察進行解釋和溝通,這可以發生在模型評估之後,但在模型訓練完成後立即進行的驗證步驟不是資料解釋。
* **(D) 數據清理:** 這也是模型訓練之前的步驟,負責處理數據中的錯誤和不一致。
---
透過模型評估,我們可以客觀地了解模型的優缺點,並決定是否將其投入實際應用。這是一個確保資料分析結果可靠性的關鍵步驟。
:::
18. 大型資料庫管理系統(如 Hadoop、Spark)在AI技術底層的資料處理與分析中扮演的角色是什麼? (A) 提供核心演算法 (B) 負責模型訓練 (C) 提供大數據處理平台支援 (D) 主要進行數據可視化
:::spoiler **答案**
C
### 大型資料庫管理系統(Hadoop, Spark)在 AI 底層的角色
雖然 AI 的核心是演算法和模型訓練,但這些都離不開強大的資料基礎設施支援。Hadoop 和 Spark 這類的大數據管理系統,正是在這個基礎層面發揮關鍵作用。
#### 1. 提供大數據儲存能力 (Hadoop HDFS)
* **Hadoop 分散式檔案系統 (HDFS)** 是一種高度容錯的分散式檔案系統。它能夠在廉價硬體組成的叢集上,儲存 PB 級甚至 EB 級的超大規模數據。
* **角色:** 為 AI 模型訓練所需的**巨量資料提供穩定可靠的儲存基礎**。無論是從各種來源匯聚的原始數據,還是經過預處理後的特徵數據,都能被 HDFS 高效地儲存和管理。
#### 2. 提供大數據處理與運算能力 (Spark, MapReduce)
* **Apache Spark** 是一個快速、通用且可擴展的大數據處理引擎,它能在大數據叢集上進行高效的數據處理和分析。相較於傳統的 Hadoop MapReduce,Spark 透過記憶體運算大幅提升了處理速度。
* **Hadoop MapReduce** 則是早期的分散式處理框架,適合批次處理大量數據。
* **角色:**
* **資料預處理與特徵工程:** AI 模型訓練前,往往需要對原始數據進行大量的清洗、轉換、整合、聚合和特徵提取。Spark 憑藉其強大的分散式處理能力,可以高效地完成這些複雜的 **ETL (Extract, Transform, Load)** 任務,將原始數據轉化為模型可用的格式。
* **大規模數據集上的複雜運算:** 許多進階的數據分析和準備步驟,例如大型圖計算(Graph Processing)、串流數據處理(Stream Processing)等,都需要 Spark 這樣的平台來支持。
#### 3. 支撐模型訓練前的準備工作
* **資料量的重要性:** 現代 AI(特別是深度學習)的效能與數據量呈正相關。沒有大數據平台,就很難有效地管理和處理如此龐大的訓練數據集。
* **協同作用:** Hadoop 和 Spark 這樣的平台並**不直接進行 AI 模型的核心演算法運算或訓練過程**(這些通常由 TensorFlow, PyTorch 等深度學習框架或 Scikit-learn 等機器學習庫完成)。它們的角色是**提供一個穩定、高效、可擴展的底層基礎設施**,讓 AI 框架能夠從中讀取準備好的數據,並將訓練結果寫回。
### 其他選項的考量:
* **(A) 提供核心演算法:** 大型資料庫管理系統主要提供數據處理能力,而非 AI 模型的核心演算法本身(例如迴歸、分類、神經網路等)。這些演算法通常由專門的機器學習或深度學習函式庫提供。
* **(B) 負責模型訓練:** 雖然 Spark 包含 MLlib 這樣的機器學習函式庫,可以用於一些模型的訓練,但大型資料庫管理系統的核心職責並非「負責」所有類型的模型訓練。特別是對於複雜的深度學習模型,訓練通常會交由專門的 AI 框架(如 TensorFlow, PyTorch)在 GPU 等加速硬體上進行。它們主要提供數據管道。
* **(D) 主要進行數據可視化:** 數據可視化是資料分析的結果呈現環節,通常會使用 Tableau, Power BI, Matplotlib 等專門的可視化工具,而非 Hadoop 或 Spark 的主要功能。雖然它們可以處理可視化所需的數據,但本身不直接進行可視化。
---
總結來說,Hadoop 和 Spark 就像 AI 技術的「地基」和「骨架」,它們確保 AI 模型有足夠的優質數據可以學習和訓練,是 AI 能夠在大規模數據上發揮作用的關鍵基石。
:::
19. 資料標準化(Data Standardization)在數據處理中的作用是什麼? (A) 減少數據集中的雜訊 (B) 調整數據到相同比例,避免某些特徵權重過大 (C) 提取數據中的關鍵特徵 (D) 減少數據維度
:::spoiler **答案**
B
### 什麼是資料標準化?
**資料標準化 (Data Standardization)** 是一種常用的數據預處理技術,特別是在機器學習領域。它的核心目標是將不同尺度或單位(例如,身高可能是公分,體重可能是公斤,收入可能是數十萬)的數值型特徵,轉換到一個共同的標準範圍或分佈上,通常是均值為 0、標準差為 1 的標準常態分佈。
### 資料標準化的作用與重要性:
1. **避免特徵權重過大:**
* 在許多機器學習演算法中(例如,支援向量機 SVM、K 近鄰 K-NN、主成分分析 PCA、梯度下降優化的模型如線性迴歸、羅吉斯迴歸和神經網路等),特徵之間的距離計算或權重分配是基於數值大小的。
* 如果一個特徵的數值範圍遠大於另一個特徵(例如,收入數十萬,而年齡只有數十),那麼這個數值範圍大的特徵可能會在模型訓練過程中佔據主導地位,即使它本身並非最重要的特徵。這會導致模型偏向於這個「大數值」特徵,而忽略其他可能同樣重要的特徵,進而影響模型的學習效果和最終效能。
* 透過標準化,所有特徵都被縮放到相似的範圍內,確保它們在模型中擁有相對平等的發言權,避免單一特徵因其數值大小而「霸凌」其他特徵。
2. **加速模型收斂:**
* 對於使用梯度下降(Gradient Descent)優化演算法的模型(如線性迴歸、羅吉斯迴歸、神經網路),未標準化的數據可能會導致損失函數的等高線圖非常扁平或狹長。
* 在這種情況下,梯度下降路徑會變得曲折和漫長,收斂速度會非常慢,甚至可能難以達到最優解。
* 經過標準化後,損失函數的等高線會更接近圓形,使得梯度下降能夠更直接地朝向最優解前進,從而**加速模型的收斂速度**。
3. **改善模型效能:**
* 對於依賴於距離計算的演算法(如 K-NN、K-Means 聚類),標準化能夠確保所有特徵在距離計算中被同等看待,從而提高聚類或分類的準確性。
* 對於基於權重的模型,標準化有助於模型更有效地學習各個特徵的真實重要性,提升模型的整體預測或分類效能。
### 其他選項的考量:
* **(A) 減少數據集中的雜訊:** 資料標準化本身並不直接「減少雜訊」。雜訊處理通常涉及數據清洗、平滑、異常值檢測與處理等方法。
* **(C) 提取數據中的關鍵特徵:** 這是「特徵選擇 (Feature Selection)」或「特徵工程 (Feature Engineering)」的作用,旨在從原始數據中選取最相關或創建新的有效特徵。
* **(D) 減少數據維度:** 這是「維度縮減 (Dimensionality Reduction)」技術(如主成分分析 PCA、t-SNE)的作用,旨在降低數據集的特徵數量,減少計算複雜性並有助於可視化。
---
總之,資料標準化是確保機器學習模型能夠公平、高效地從數據中學習的關鍵步驟,它讓不同尺度的特徵能夠在同一個起跑線上競爭。
:::
20. 在資料分析流程的「資料解釋」階段,主要產出為何? (A) 原始數據集 (B) 清理後的數據 (C) 可視化報告與決策支持 (D) 新的模型演算法
:::spoiler **答案**
C
:::
21. 在生成式AI的應用中,為防止敏感資料洩漏,最常見且有效的技術措施是哪一項? (A) 僅使用開源模型 (B) 採用資料加密與匿名化 (C) 減少模型參數數量 (D) 僅在學術研究中使用AI
:::spoiler **答案**
B
:::
22. 歐盟的《一般資料保護規則》(GDPR)對於AI系統處理個人資料提出了哪些主要要求? (A) 數據必須全部公開 (B) 資料匿名化或假名化技術應用 (C) 僅允許政府機構存取數據 (D) 不需用戶知情同意
:::spoiler **答案**
B
### 簡述 GDPR
**《一般資料保護規則》(General Data Protection Regulation, GDPR)** 是歐盟於 2018 年 5 月 25 日正式實施的一項具有里程碑意義的數據隱私法規。它旨在強化歐盟公民對其個人資料的控制權,並統一歐盟內部的數據保護法規。
GDPR 的適用範圍廣泛,只要是處理歐盟公民個人資料的組織,無論其公司總部是否位於歐盟境內,都必須遵守 GDPR。
---
### GDPR 對 AI 系統處理個人資料的主要要求
GDPR 對於 AI 系統處理個人資料設下了嚴格的規範,主要目標是確保個人資料的處理合法、公平且透明,同時保護數據主體的權利。以下是幾項主要要求,特別是與 AI 系統相關的部分:
#### 1. 合法性、公平性和透明度 (Lawfulness, Fairness, and Transparency)
* **要求:** 處理個人資料必須有合法的依據(例如,數據主體的同意、履行合約、法律義務等),並以公平、透明的方式進行。
* **對 AI 的影響:** AI 系統在收集、使用個人資料時,必須明確告知用戶其數據將如何被使用,特別是在用於訓練或運作 AI 模型的場景。
#### 2. 目的限制 (Purpose Limitation)
* **要求:** 個人資料只能為特定、明確且合法的目的而收集,並且不得以與這些目的不相符的方式進一步處理。
* **對 AI 的影響:** 如果 AI 系統收集資料是為了特定目的,就不能將這些資料用於其他不相關的 AI 應用,除非再次取得用戶同意或有新的合法依據。
#### 3. 資料最小化 (Data Minimization)
* **要求:** 處理的個人資料應限於達成處理目的所必需的範圍,避免過度收集。
* **對 AI 的影響:** AI 系統應僅收集和使用其模型訓練和運作所需的最小限度個人資料。例如,如果年齡資訊對於某個推薦系統並非必要,則不應收集。
#### 4. 儲存限制 (Storage Limitation)
* **要求:** 個人資料的儲存時間不應超過實現處理目的所必需的時間。
* **對 AI 的影響:** 用於訓練 AI 模型的個人資料,在達到模型訓練或維護的目的後,應考慮進行刪除、匿名化或假名化。
#### 5. 完整性與機密性 (Integrity and Confidentiality)
* **要求:** 採取適當的技術和組織措施,確保個人資料的安全,防止未經授權或非法的處理,以及意外的丟失、損壞或破壞。
* **對 AI 的影響:** AI 系統的開發者和營運者必須確保個人資料在訓練、儲存和推論過程中的安全性,防止數據洩露或濫用。
#### 6. 準確性 (Accuracy)
* **要求:** 個人資料應準確且在必要時保持最新。
* **對 AI 的影響:** 如果 AI 系統依賴個人資料進行預測或決策,則其輸入數據的準確性至關重要。
#### 7. 資料匿名化或假名化技術應用 (Pseudonymization and Anonymization)
* **要求:** GDPR 鼓勵使用匿名化(完全移除所有可識別資訊,使數據無法追溯到個人)或假名化(用假名或標識符替換直接識別符,使數據在沒有額外資訊的情況下無法直接識別個人)技術來降低數據處理的隱私風險。
* **對 AI 的影響:** 對於許多 AI 應用,尤其是在數據共享、研究或開發階段,使用匿名化或假名化技術可以有效降低資料處理對個人隱私的影響,同時仍能用於模型訓練和開發。這也是選項 (B) 正確的原因。
#### 8. 自動化決策和個體描述 (Automated Decision-Making and Profiling)
* **要求:** 數據主體有權不受僅基於自動化處理(包括個體描述)的決策影響,如果該決策對其產生法律效力或顯著影響。除非有明確同意、法律授權或為簽訂/履行合約所必需。
* **對 AI 的影響:** 如果 AI 系統用於自動化決策(例如,自動信用評估、招聘篩選),企業必須確保其決策過程的透明度、公平性,並提供數據主體提出異議和人工審查的權利。這對 AI 的「可解釋性」(Explainable AI, XAI)提出了更高要求。
#### 9. 數據保護影響評估 (Data Protection Impact Assessment, DPIA)
* **要求:** 對於可能導致高風險的個人資料處理活動,必須進行 DPIA。
* **對 AI 的影響:** 許多 AI 系統,特別是那些處理敏感數據或進行大規模個體描述的系統,很可能需要進行 DPIA,以評估並減輕潛在的隱私風險。
---
### 其他選項的錯誤之處:
* **(A) 數據必須全部公開:** GDPR 強調個人資料保護和隱私,而非公開所有數據。恰恰相反,它限制了數據的公開和共享。
* **(C) 僅允許政府機構存取數據:** GDPR 適用於所有處理個人資料的組織,包括私人企業和政府機構,並且不限制只有政府機構才能存取數據。
* **(D) 不需用戶知情同意:** GDPR 非常強調數據主體的「明確同意」(Explicit Consent),特別是對於敏感個人資料和某些自動化決策。這與「不需用戶知情同意」是完全相反的。
---
:::
23. 當AI模型訓練數據存在偏見時,可能導致模型輸出存在歧視性。為應對此倫理挑戰,下列何者是研究界與產業界需攜手合作的目標? (A) 僅提高模型運算速度 (B) 打造更透明、公平且可靠的機器學習系統 (C) 減少訓練數據量 (D) 限制AI技術的應用範圍
:::spoiler **答案**
B
:::
24. 在AI系統的安全性防範措施中,採用「差分隱私技術」(Differential Privacy)的主要目的是什麼? (A) 提升模型訓練速度 (B) 避免模型過擬合 (C) 防止敏感資料外洩 (D) 降低模型複雜度
:::spoiler **答案**
C
### 簡述差分隱私技術(Differential Privacy)
**差分隱私 (Differential Privacy)** 是一種強大的、基於數學定義的隱私保護技術,它的核心目標是在**進行數據分析或模型訓練的同時,最大限度地保護數據集中個體(個人)的隱私**。
簡單來說,差分隱私的設計理念是:**即使分析者擁有了數據集的所有資訊,也無法判斷某個特定個體的數據是否存在於這個數據集中,或者他們是否參與了某項分析。** 即使某個個體的數據被加入或移除,分析結果也應該保持統計上的相似性。
### 差分隱私如何防止敏感資料外洩?
差分隱私的實現方式通常是**向數據中精確地添加隨機噪音(noise)**。這種噪音的添加是經過數學嚴格控制的,它既能模糊單一數據點的影響,又不會過度影響整體數據的統計特性,從而允許在聚合層面進行有意義的分析,同時保護個體隱私。
* **保護個體隱私:**
* 在許多 AI 應用中,尤其是在訓練模型時,模型可能會間接「記住」訓練數據中的敏感資訊。這可能導致**隱私洩露攻擊 (Privacy Leakage Attacks)**,例如:
* **成員推斷攻擊 (Membership Inference Attacks):** 攻擊者可以推斷某個特定個體是否在模型的訓練數據集中。
* **模型反轉攻擊 (Model Inversion Attacks):** 攻擊者可以從模型中重建出訓練數據集中某個個體的原始數據(例如,從人臉識別模型中重建出人臉圖像)。
* 差分隱私透過在訓練數據或模型輸出中引入微小的隨機擾動,使得單個數據點的變化不會對最終的分析結果或模型產生顯著影響。這意味著,即使攻擊者試圖透過分析模型來推斷原始數據,他們也無法確定某個特定個體是否存在於數據集中,因為有無該個體,模型的行為幾乎相同。
* **避免透過聚合結果推斷個體:**
* 即使是看似無害的統計分析結果(例如,平均值、分佈),也可能在特定情況下被用來推斷個人的敏感資訊(例如,透過比較包含和不包含某個體的查詢結果)。
* 差分隱私保證了,即使在多次查詢或分析中,任何單一數據點的參與或缺席,都不會顯著改變查詢結果,從而有效地**保護了個體在群體數據中的匿名性**。
### 其他選項的考量:
* **(A) 提升模型訓練速度:** 差分隱私技術通常會增加計算複雜度,甚至可能降低模型訓練速度,因為它涉及額外的噪音添加和計算。
* **(B) 避免模型過擬合:** 過擬合是指模型在訓練數據上表現良好但在新數據上表現不佳。雖然引入噪音在某種程度上可以有助於正則化,但避免過擬合的主要技術是正則化(regularization)、交叉驗證(cross-validation)和增加數據量等,而非差分隱私的主要目的。差分隱私的目標是保護隱私,而不是直接解決過擬合問題。
* **(D) 降低模型複雜度:** 差分隱私不直接降低模型本身的複雜度。它是在數據層面或模型訓練過程中引入隱私保護機制,與模型結構的簡化無關。
---
:::
25. 為了確保企業的AI應用符合法律法規要求,例如《加州消費者隱私法案》(CCPA),企業應在資料處理上採取什麼措施? (A) 隨意分享用戶資料 (B) 忽視用戶資料使用權利 (C) 確保用戶知情並獲得授權 (D) 只收集公開資料
:::spoiler **答案**
C
:::
26. 在生成式AI的風險管理中,建立「身份驗證與授權機制」的主要目的為何? (A) 提高數據的可用性 (B) 確保只有經授權的用戶能夠存取系統 (C) 降低計算成本 (D) 促進AI技術的轉移
:::spoiler **答案**
B
:::
27. 當AI系統生成錯誤或不當結果時,責任歸屬問題是生成式AI發展中的核心難題。這反映了生成式AI面臨的哪種挑戰? (A) 內容真實性問題 (B) 計算成本過高 (C) 透明性不足與責任界定不清 (D) 可控性較低
:::spoiler **答案**
C
### 生成式 AI 的挑戰:透明性不足與責任界定不清
生成式 AI(Generative AI),例如大型語言模型(LLMs)或圖像生成模型,能夠創造出極其逼真且具原創性的內容。然而,當這些 AI 系統產生**錯誤、有害、偏見、歧視性甚至違法的內容**時,確定誰該為此負責,是當前 AI 發展中一個極為複雜且亟待解決的問題。
#### 1. 透明性不足 (Lack of Transparency / Explainability)
* **「黑箱問題」:** 許多先進的 AI 模型,特別是深度學習模型,結構非常複雜,包含數十億甚至數萬億的參數。它們的決策過程對於人類來說是「黑箱」,我們很難確切知道 AI 是如何得出某個特定結果的。
* **難以追溯:** 當生成式 AI 產生不當內容時,我們難以追溯是訓練數據的問題、模型設計的缺陷、使用者輸入的誤導,還是模型內部運算過程中出現了偏差。這種不透明性使得問題的根源難以被識別和修復。
* **舉例:** 某個生成式 AI 寫出了一篇帶有歧視性言論的文章,開發者很難直接指出是哪一行代碼、哪個數據點或哪個權重導致了這個結果。
#### 2. 責任界定不清 (Unclear Accountability)
* **多方參與:** 生成式 AI 的開發和應用涉及多個環節和多方參與者:
* **數據提供者/收集者:** 訓練數據的來源和品質。
* **模型開發者/研究人員:** 模型架構設計、訓練過程。
* **模型部署者/服務提供者:** 將模型整合到產品或服務中。
* **使用者:** 輸入提示詞(prompt)和使用方式。
* **模糊的界限:** 當 AI 犯錯時,很難將責任明確地歸咎於其中某一方。是數據集的問題導致了偏見?是模型訓練時沒有充分考慮到安全性?是使用者惡意輸入導致了不當輸出?還是服務平台沒有足夠的內容過濾機制?
* **法律與道德困境:** 現行的法律框架往往難以應對 AI 這種新型的「決策者」。誰應該承擔法律責任?是擁有 AI 的公司、開發者個人、還是最終用戶?這涉及到賠償、罰款、甚至刑事責任等問題。
* **舉例:** 一個醫療 AI 系統基於錯誤資訊提供診斷建議,導致患者受到傷害。責任應該歸咎於開發該 AI 的公司、提供訓練數據的醫院,還是使用該系統的醫生?
### 其他選項的考量:
* **(A) 內容真實性問題:** 雖然生成式 AI 確實面臨「幻覺」(Hallucination,即生成虛假或不準確資訊)的內容真實性問題,但責任歸屬更多地體現了**透明性不足和責任界定不清**,而不僅僅是內容是否真實本身。真實性是問題的「表現」,責任歸屬是問題的「根源和法律層面」。
* **(B) 計算成本過高:** 雖然訓練大型生成式 AI 模型確實需要巨大的計算資源和成本,但這是一個工程和經濟上的挑戰,與 AI 生成錯誤結果後的責任歸屬問題無關。
* **(D) 可控性較低:** 生成式 AI 的「可控性較低」(即難以完全控制其輸出內容,有時會出現意外行為)是導致其產生錯誤或不當結果的一個原因。但是,「可控性低」本身導致了「透明性不足」和「責任界定不清」,因為難以控制和預測,所以難以追溯和歸責。因此,選項 C 更直接地概括了「責任歸屬」這個核心難題。
---
:::
28. 根據中華民國生成式AI參考指引,業務承辦人不得向生成式AI提供涉及公務應保密、個人及未經機關(構)同意公開之資訊。這主要強調了哪項原則? (A) 數據共享原則 (B) 數據透明原則 (C) 安全性與隱私性原則 (D) 數據多樣性原則
:::spoiler **答案**
C
:::
29. 在AI治理中,企業需定期進行資安檢測與弱點掃描,這是為了應對哪種風險? (A) 模型過擬合風險 (B) 數據不足風險 (C) 惡意攻擊與系統安全漏洞風險 (D) 演算法偏見風險
:::spoiler **答案**
C
:::
30. PII(個人識別資訊)和PHI(健康情況資訊)偵測技術在AI應用中的主要目的為何? (A) 提升文本可讀性 (B) 自動識別並分類文本中的敏感訊息,確保數據隱私和安全 (C) 僅用於將手寫文字轉換為數位文本 (D) 專門用於生成新的藝術作品
:::spoiler **答案**
B
:::
# L113 人工智慧基礎概論
1. 機器學習作為人工智慧的核心支柱,其定義強調的核心是下列哪一項? (A) 透過人為編寫的規則來執行特定任務 (B) 依賴於預先設定的固定邏輯來解決問題 (C) 基於數據驅動從經驗中學習並執行任務 (D) 僅限於處理標記清晰的結構化數據
:::spoiler **答案**
C
:::
2. 機器學習技術的應用在企業運營中,主要目的不包括下列哪一項? (A) 提高效率 (B) 增強決策能力 (C) 促進創新 (D) 完全取代人類的創造力
:::spoiler **答案**
D
:::
3. 機器學習在發展過程中面臨的挑戰,下列哪一項描述不正確? (A) 數據品質的不均衡 (B) 標記數據的匱乏 (C) 模型的高度解釋性與透明性 (D) 隱私保護與倫理責任爭議
:::spoiler **答案**
C
:::
4. 機器學習的基本原理是透過下列哪一種方式來進行預測和決策? (A) 透過人為專家系統的硬編碼規則 (B) 利用數據中的模式與規律透過演算法構建模型 (C) 僅依賴於大量的程式碼編寫 (D) 主要依靠靜態的數據庫查詢
:::spoiler **答案**
B
:::
5. 關於機器學習的「自適應能力」,下列哪項描述最為恰當? (A) 系統只能執行預先定義的任務,無法調整 (B) 透過分析歷史數據構建模型,並能根據新數據動態更新 (C) 僅能處理單一類型的數據輸入 (D) 依賴於外部人工頻繁的調整才能維持效能
:::spoiler **答案**
B
### 機器學習的「自適應能力」
機器學習的核心特徵之一就是其**自適應能力(Adaptability)**。這指的是機器學習系統在面對新的或變化的數據時,能夠調整自身以維持或改進其效能的能力。
#### **解釋選項 (B) 為什麼最為恰當:**
* **透過分析歷史數據構建模型:** 這是所有機器學習的基礎。模型首先從大量的歷史數據中學習模式、趨勢和關聯性,從而建立起對現象的理解和預測能力。這個初始階段是模型「智慧」的來源。
* **能根據新數據動態更新:** 這是「自適應能力」的精髓所在。
* **持續學習(Continuous Learning):** 機器學習模型可以設計成能夠吸收新的數據點,並利用這些新數據來微調(fine-tune)或重新訓練(retrain)自己。
* **應對數據漂移(Data Drift):** 現實世界的數據會隨著時間推移而變化(例如,消費者偏好的改變、市場趨勢的變動)。模型的自適應能力使其能夠偵測到這些變化,並調整其內部參數,以確保即使在數據分佈發生變化時,模型仍能保持高水準的預測或決策能力。
* **提升效能:** 透過不斷地從新數據中學習,模型可以持續改進其預測準確性、分類能力或決策品質。
#### **為何其他選項不恰當:**
* **(A) 系統只能執行預先定義的任務,無法調整:** 這描述的是傳統的規則導向型程式,而不是機器學習的特點。機器學習的強項就在於其能夠從數據中學習並適應。
* **(C) 僅能處理單一類型的數據輸入:** 許多機器學習模型(特別是多模態學習模型)能夠處理多種數據類型(如文本、圖像、聲音、數值數據)的輸入。即使是單一數據類型的模型,其設計目標也是通用性,而非僅限於非常狹隘的單一輸入。
* **(D) 依賴於外部人工頻繁的調整才能維持效能:** 雖然在模型部署後,可能需要人工進行監控、維護和偶爾的重新訓練,但機器學習的目標之一正是減少對人工的依賴,使其能夠自主地從數據中學習和調整。若需頻繁人工調整才能維持效能,則說明其「自適應能力」不足。
---
:::
6. 機器學習技術在醫療領域的應用實例中,不包括下列哪一項? (A) 輔助醫生進行疾病診斷 (B) 分析醫學影像數據識別病變 (C) 市場趨勢分析與信用風險評估 (D) 為個人化治療方案設計提供依據
:::spoiler **答案**
C
:::
7. 在機器學習中,下列哪種類型主要基於「標記的數據」進行訓練,並應用於精確的分類與迴歸任務? (A) 非監督式學習 (B) 強化學習 (C) 監督式學習 (D) 半監督式學習
:::spoiler **答案**
C
:::
8. 下列哪一種機器學習模型專注於探索「無標記數據」的內在結構,實現數據聚類與降維? (A) 監督式學習 (B) 非監督式學習 (C) 強化學習 (D) 多模態學習
:::spoiler **答案**
B
:::
9. K均值聚類(K-Means Clustering)演算法最常應用於下列哪一類機器學習任務? (A) 迴歸分析 (B) 分類問題 (C) 數據聚類 (D) 時間序列預測
:::spoiler **答案**
C
:::
10. 主成分分析(Principal Component Analysis, PCA)在非監督式學習中的主要作用是什麼? (A) 提升數據的維度以捕捉更多細節 (B) 進行線性變換將高維數據壓縮到低維空間 (C) 將數據分為若干個不同的群組 (D) 根據標記數據進行分類
:::spoiler **答案**
B
---
### 簡介主成分分析(Principal Component Analysis, PCA)
**主成分分析 (Principal Component Analysis, PCA)** 是一種廣泛使用的**無監督(非監督式)學習**演算法,主要用於**數據降維(Dimensionality Reduction)**。它的核心思想是透過一個**線性變換**,將原始的高維數據投影到一個新的低維空間,同時盡可能地保留原始數據中的變異信息。
#### PCA 的基本原理
PCA 的目標是找到一組新的正交基(Orthogonal Basis),稱為**主成分(Principal Components, PCs)**,這些主成分是原始特徵的線性組合。這些主成分具有以下特性:
1. **最大方差:** 第一個主成分(PC1)解釋了數據中最大的方差。換句話說,數據點在 PC1 軸上的投影具有最大的分散程度。第二個主成分(PC2)在與 PC1 正交的基礎上,解釋了剩餘數據中最大的方差,以此類推。
2. **不相關性:** 所有的主成分之間都是相互正交的,這意味著它們之間是統計上不相關的(或說相互獨立的)。
3. **降維:** 我們通常會選擇解釋了數據大部分方差的**前 k 個**主成分來形成新的低維空間,從而實現數據降維。
#### PCA 的主要作用與目的
1. **數據降維:**
* **減少計算複雜度:** 當數據的維度非常高時,許多機器學習演算法的計算成本會急劇增加。PCA 可以將數據從高維空間壓縮到低維空間,顯著減少訓練和處理的時間,提高演算法效率。
* **解決「維度災難」(Curse of Dimensionality):** 在高維空間中,數據變得非常稀疏,這會導致模型難以有效學習,並可能出現過擬合。降維有助於緩解這個問題。
2. **去除冗餘信息和雜訊:**
* 數據中可能存在高度相關的特徵,它們提供了重複的信息。PCA 透過將數據投影到正交的主成分上,有效去除了這種冗餘。
* 較小的主成分通常解釋了較少的變異,這些變異可能包含雜訊。透過保留主要成分而捨棄次要成分,可以在一定程度上達到降噪的效果。
3. **數據可視化:**
* 人類難以直接理解三維以上的數據。透過 PCA 將高維數據降至二維或三維,可以方便地進行數據可視化,幫助我們直觀地觀察數據的結構、分佈和群集情況,發現潛在的模式或異常點。
4. **改善模型效能:**
* 降維可以減少模型的複雜性,降低過擬合的風險。
* 處理後的數據更易於被下游的機器學習模型(如聚類、分類模型)所利用,有時甚至能提升模型的整體效能。
#### PCA 為什麼是非監督式學習?
PCA 被歸類為非監督式學習,因為它在執行降維的過程中,**不需要使用任何數據的標籤信息**。它僅僅依賴於數據本身的內在結構(即數據點之間的方差和協方差)來找到最佳的投影方向。
---
:::
11. 強化學習(Reinforcement Learning)的核心目標是什麼? (A) 精確地分類輸入數據 (B) 預測未來的數值趨勢 (C) 透過試錯學習最大化累積獎勵 (D) 從無標記數據中發現隱藏模式
:::spoiler **答案**
C
:::
12. 強化學習的三個核心要素是下列哪三項? (A) 數據、模型、預測 (B) 代理、環境、獎勵 (C) 輸入、輸出、演算法 (D) 訓練集、驗證集、測試集
:::spoiler **答案**
B
### 強化學習(Reinforcement Learning, RL)的三個核心要素
強化學習是一種機器學習的範式,它讓一個智慧體(或稱代理人)在一個環境中透過與環境互動來學習如何做出最佳決策,以最大化長期累積的獎勵。這三個核心要素是構成所有強化學習問題的基石:
#### 1. 代理(Agent)
* **定義:** 代理是強化學習系統中的**學習者或決策者**。它是一個軟體或硬體實體,能夠感知環境、做出行動,並學習如何達成目標。
* **角色:** 代理透過與環境的互動來學習一個**策略(Policy)**,這個策略定義了在特定狀態下應該採取什麼行動。代理的目標是找到一個最佳策略,使其能夠最大化從環境中獲得的累積獎勵。
* **例子:** 在玩西洋棋的 AI 中,代理就是下棋的程式;在自動駕駛中,代理就是控制汽車的系統。
#### 2. 環境(Environment)
* **定義:** 環境是代理所處的**世界或上下文**。它包含了代理能夠感知的所有信息,並根據代理的行動來更新其狀態並給予獎勵。
* **角色:** 環境接收代理的行動,並對此做出反應,產生一個新的狀態和一個(或零)獎勵。環境的動態可以是確定的(Deterministic)或隨機的(Stochastic)。
* **例子:** 西洋棋遊戲的棋盤狀態和規則;自動駕駛汽車行駛的道路、其他車輛、交通號誌和行人。
#### 3. 獎勵(Reward)
* **定義:** 獎勵是環境根據代理所採取的行動而給予代理的**回饋信號**。它是一個數值,反映了該行動在當前狀態下的好壞程度。
* **角色:** 獎勵是代理學習的唯一目標。代理的目的是學習一個策略,以最大化它在長期內所能獲得的**累積獎勵**。積極的獎勵鼓勵代理重複該行為,而消極的獎勵(懲罰)則促使代理避免該行為。
* **例子:** 在西洋棋中,贏棋會得到高額獎勵,輸棋則得到負獎勵;在自動駕駛中,安全到達目的地會得到正獎勵,發生碰撞則得到負獎勵。
---
### 其他選項的考量:
* **(A) 數據、模型、預測:** 這是描述**監督式學習**的通用概念。強化學習雖然也涉及數據(代理與環境互動產生的經驗數據)、模型(策略模型、價值模型)和預測(預測獎勵或最佳行動),但這並非其特有的核心要素。
* **(C) 輸入、輸出、演算法:** 這是描述**任何計算系統**的基本組成部分,過於籠統,無法精確定義強化學習。
* **(D) 訓練集、驗證集、測試集:** 這是**監督式學習**中用於評估模型效能的數據劃分方式,不適用於強化學習的互動式學習範式。
---
:::
13. Q-Learning是一種強化學習方法,其核心目標是讓AI學習每個行動的哪種「價值」? (A) 即時價值 (B) 平均價值 (C) 長期價值 (D) 最小價值
:::spoiler **答案**
C
### 簡介 Q-Learning
**Q-Learning** 是一種無模型(Model-Free)的強化學習演算法,屬於**時序差分學習(Temporal Difference Learning)**的一種。它的核心思想是學習一個**「Q 值函數」(Q-function 或 Action-Value Function)**,記作 `Q(s, a)`。
* `Q(s, a)` 代表在給定**狀態 (state) s** 的情況下,採取**行動 (action) a** 所能獲得的**預期未來累積獎勵(Expected Future Cumulative Reward)**。
### Q-Learning 的核心目標:學習長期價值
Q-Learning 的主要目標是讓代理人學習每個「狀態-行動對」(state-action pair)的 **長期價值**。這與僅僅考慮「即時獎勵」(immediate reward)有本質區別。
* **即時獎勵 (Immediate Reward):** 這是代理人執行一個行動後,環境立即給予的獎勵。它只反映了當前行動的直接效益。
* **長期價值 (Long-term Value / Cumulative Reward):** 這是代理人從當前狀態和行動開始,並遵循某個策略一直到結束(或無限期)所能獲得的所有未來獎勵的總和(通常會經過折扣,即「折扣累積獎勵」Discounted Cumulative Reward)。
Q-Learning 的演算法透過不斷更新 Q 值,使得 Q 值能夠反映出從當前狀態採取某個行動後,**不僅僅是當下的獎勵,更是之後所有可能獲得的獎勵總和**。這使得代理人能夠學會做出看似短期獎勵不高,但卻能導向未來更高獎勵的行動。
### Q-Learning 如何學習長期價值?
Q-Learning 使用以下**Q 值更新公式(Bellman Equation 的變形)**來迭代學習 Q 值:
`Q(s, a) ← Q(s, a) + α [r + γ max_a' Q(s', a') - Q(s, a)]`
其中:
* `Q(s, a)`:當前狀態 `s` 下採取行動 `a` 的 Q 值。
* `α` (alpha):學習率(Learning Rate),控制每次更新的幅度。
* `r`:在狀態 `s` 採取行動 `a` 後獲得的**即時獎勵**。
* `γ` (gamma):折扣因子(Discount Factor),介於 0 和 1 之間。它決定了未來獎勵的重要性。
* `γ` 接近 0 表示代理人更看重即時獎勵。
* `γ` 接近 1 表示代理人更看重長期未來獎勵。
* `max_a' Q(s', a')`:在新的狀態 `s'` 下,所有可能行動 `a'` 中**最大的 Q 值**。這代表了從新狀態 `s'` 開始,如果採取最佳行動所能獲得的**未來最大價值**。
* `Q(s, a)`:當前對 `Q(s, a)` 的估計值。
這個公式的關鍵在於 `r + γ max_a' Q(s', a')` 部分。它將**即時獎勵 `r`** 與**未來可能獲得的最大預期獎勵 `γ max_a' Q(s', a')`** 結合起來,共同更新當前狀態-行動對的 Q 值。這正是 Q-Learning 能夠學習**長期價值**的機制。
### 其他選項的考量:
* **(A) 即時價值:** Q-Learning 不僅僅學習即時價值,它將即時獎勵納入考量,但更重要的是結合了對未來價值的預期。
* **(B) 平均價值:** Q-Learning 學習的是預期的累積價值,而不是簡單的平均價值。
* **(D) 最小價值:** Q-Learning 的目標是最大化累積獎勵,因此它會學習能帶來「最大」長期價值的行動,而非最小價值。
---
因此,Q-Learning 的核心目標是讓 AI 學習在特定狀態下採取某個行動後,所能獲得的**預期長期累積獎勵**,這使得代理人能夠做出具有前瞻性的決策。
:::
14. 深度學習(Deep Learning)與傳統機器學習方法相比,其主要優勢在於哪一方面? (A) 需要人類專家手動設計特徵 (B) 處理數據時需要較少的計算能力 (C) 模型能夠自動從大量數據中提取深層且抽象的特徵 (D) 僅限於處理結構化數據
:::spoiler **答案**
C
:::
15. 深度學習在自然語言處理領域的應用實例,不包括下列哪一項? (A) 機器翻譯 (B) 文本生成 (C) 物件偵測 (D) 語音助理
:::spoiler **答案**
C
:::
16. 機器學習實現的核心流程可分為三大階段,下列哪一項不是其中之一? (A) 數據處理 (B) 模型訓練 (C) 市場推廣 (D) 模型評估與優化
:::spoiler **答案**
C
:::
17. 在機器學習的數據處理階段,處理數據集中的遺缺值(Missing Values)的常見方法是下列哪一項? (A) 移除所有含有遺缺值的數據點 (B) 將遺缺值替換為隨機數 (C) 透過均值填補(Mean Imputation)或中位數填補 (D) 忽略遺缺值不進行處理
:::spoiler **答案**
C
:::
18. 在機器學習模型評估中,F1分數(F1 Score)特別適合處理下列哪種問題? (A) 平衡的分類問題 (B) 迴歸問題 (C) 數據不平衡的分類問題 (D) 聚類問題
:::spoiler **答案**
C
### 為什麼 F1 分數適合處理數據不平衡的分類問題?
F1 分數是一種衡量分類模型效能的指標,它結合了**精確度(Precision)**和**召回率(Recall)**。
#### 1. 理解精確度(Precision)和召回率(Recall)
在分類問題中,特別是二元分類(如判斷是否為垃圾郵件、是否患病),我們通常會定義一個「正類」(Positive Class)和一個「負類」(Negative Class)。
* **精確度 (Precision):**
* 定義:在模型預測為**正類**的樣本中,實際也為**正類**的比例。
* 公式:$Precision = \frac{True \ Positives}{True \ Positives + False \ Positives}$
* 含義:模型預測的「準」度,錯誤地將負類預測為正類的代價高時(例如,將健康的病人錯誤診斷為患病),精確度很重要。
* **召回率 (Recall / Sensitivity):**
* 定義:在所有實際為**正類**的樣本中,模型正確預測為**正類**的比例。
* 公式:$Recall = \frac{True \ Positives}{True \ Positives + False \ Negatives}$
* 含義:模型識別出正類的「完整」度,錯過正類的代價高時(例如,未能診斷出實際患病的病人),召回率很重要。
#### 2. F1 分數如何解決數據不平衡問題?
在**數據不平衡的分類問題**中(例如,信用卡詐欺偵測,其中詐欺交易的數量遠少於正常交易),如果僅使用**準確度(Accuracy)**作為評估指標,會產生誤導性結果:
* 假設 1000 筆交易中只有 10 筆是詐欺(正類)。
* 一個模型即使什麼都不做,總是預測「非詐欺」,它的準確度也高達 $(990/1000 = 99\%)$。然而,這個模型完全沒有偵測到任何詐欺,對於實際應用毫無價值。
此時,精確度和召回率的重要性就凸顯出來:
* 那個總是預測「非詐欺」的模型,其偵測詐欺的**召回率**會是 $0/10 = 0\%$(因為它錯過了所有詐欺)。這能明確指出模型的無效性。
**F1 分數** 是精確度和召回率的**調和平均數(Harmonic Mean)**:
$F1 \ Score = 2 \times \frac{Precision \times Recall}{Precision + Recall}$
F1 分數的特點:
* 它對精確度和召回率都敏感。只有當兩者都相對較高時,F1 分數才會高。
* 如果精確度或召回率中的任何一個非常低,F1 分數也會很低。這使得它能夠**更好地反映模型在少數類(正類)上的真實效能**。
* 在數據不平衡的場景中,我們通常更關心模型對少數類(即我們想要識別的目標,例如詐欺、疾病)的表現。F1 分數正是為此而設計的,它能夠綜合考量模型在正類上的「準確性」和「完整性」。
### 其他選項的考量:
* **(A) 平衡的分類問題:** 在數據平衡的情況下,準確度(Accuracy)通常是一個不錯的評估指標。雖然 F1 分數也可以用,但並非其特別「適合」的獨特之處。
* **(B) 迴歸問題:** F1 分數是為**分類問題**設計的指標。迴歸問題的評估指標通常是均方誤差(MSE)、均方根誤差(RMSE)、平均絕對誤差(MAE)或 R-平方等。
* **(D) 聚類問題:** F1 分數是監督式學習中的分類評估指標。聚類(Clustering)是非監督式學習,其評估指標通常是輪廓係數(Silhouette Score)、Davies-Bouldin Index 或調整蘭德係數(Adjusted Rand Index)等。
---
:::
19. 交叉驗證(Cross-Validation)在機器學習模型評估中的主要目的為何? (A) 提高模型的訓練速度 (B) 降低過擬合(Overfitting)風險並提升模型的泛化能力 (C) 僅用於選擇最佳的數據集 (D) 簡化模型的複雜度
:::spoiler **答案**
B
:::
20. K折交叉驗證(K-Fold Cross-Validation)是如何評估模型性能的? (A) 將數據集分為兩個部分,一個用於訓練,一個用於測試 (B) 每次選擇一個子集作為訓練集,其餘作為測試集 (C) 將數據集平均分成K個子集,每次選擇一個作為測試集,其餘K-1個作為訓練集,重複K次後取平均評估結果 (D) 只在一個固定的數據集上進行多次訓練和測試
:::spoiler **答案**
C
### 簡介 K 折交叉驗證(K-Fold Cross-Validation)
**K 折交叉驗證**是一種廣泛用於**評估機器學習模型性能**和**選擇最佳模型參數**(超參數調優)的統計方法。它的主要目的是更可靠地估計模型在**未見過數據**上的泛化能力,避免單次訓練-測試劃分可能帶來的偶然性或偏差。
#### K 折交叉驗證的步驟
假設我們有一個完整的數據集,以下是 K 折交叉驗證的具體步驟:
1. **數據劃分:** 首先,將整個數據集**隨機且平均地分成 K 個互不重疊的子集(或稱為「折」, folds)**。例如,如果 K=5,數據集就會被分成 5 個大小大致相同的子集。
2. **迭代訓練與測試:** 接下來,進行 K 次迭代(或稱為「輪」, rounds):
* 在每一次迭代中,選擇其中**一個子集作為「測試集」(Test Set)**,用於評估模型性能。
* 將**其餘的 K-1 個子集合併起來,作為「訓練集」(Training Set)**,用於訓練模型。
3. **性能記錄:** 在每一次迭代中,模型都會在訓練集上進行訓練,然後在對應的測試集上進行評估,並記錄下這次評估的性能指標(例如,準確度、F1 分數、MSE 等)。
4. **結果平均:** 重複上述步驟 K 次,確保每個子集都被用作測試集且僅用作一次測試集。最後,將這 K 次獨立評估得到的性能指標**取平均值**。這個平均值就是模型在 K 折交叉驗證下的最終性能估計。
#### K 折交叉驗證的優點
* **更可靠的性能估計:** 相較於單次訓練-測試劃分,K 折交叉驗證提供了更穩定和可靠的模型性能估計,因為它使用了數據集的所有部分進行訓練和測試,並且對隨機劃分的影響不那麼敏感。
* **充分利用數據:** 數據集中的每個樣本都會在 K-1 次迭代中被用於訓練,並在 1 次迭代中被用於測試,這使得數據得到了更充分的利用。
* **減少過擬合和欠擬合的風險評估:** 透過在不同數據子集上訓練和測試,可以更好地判斷模型是否過擬合(在訓練集上表現好但在測試集上差)或欠擬合(在訓練集和測試集上都表現差)。
* **超參數調優:** 它是選擇模型最佳超參數的標準方法。透過在不同超參數組合下運行 K 折交叉驗證,並選擇平均性能最佳的組合。
---
### 其他選項的考量:
* **(A) 將數據集分為兩個部分,一個用於訓練,一個用於測試:** 這描述的是最基本的**單次訓練-測試劃分**方法,而不是 K 折交叉驗證。
* **(B) 每次選擇一個子集作為訓練集,其餘作為測試集:** 這描述不夠完整且有歧義。K 折交叉驗證是明確地將數據分成 K 份,並輪流使用。
* **(D) 只在一個固定的數據集上進行多次訓練和測試:** 這也不是 K 折交叉驗證。K 折交叉驗證的重點是每次使用不同的訓練集和測試集組合。
---
因此,K 折交叉驗證透過系統性的數據劃分和多次迭代評估,提供了一個更穩健和全面的模型性能評估方式。
:::
21. 在機器學習的模型調參(Hyperparameter Tuning)中,網格搜索(Grid Search)的方法是下列哪一種? (A) 隨機選擇超參數組合進行測試 (B) 在預定範圍內逐一嘗試超參數組合 (C) 透過代理模型逐步尋找最佳超參數 (D) 僅依靠人工經驗調整超參數
:::spoiler **答案**
B
### 簡介網格搜索(Grid Search)
**網格搜索(Grid Search)** 是一種最直接和常用的**超參數調優(Hyperparameter Tuning)**方法。超參數是模型在訓練過程之前需要設定的參數(例如,學習率、迭代次數、神經網路的層數和每層節點數等),它們不能透過訓練數據直接學習得到,但會極大地影響模型的性能。
#### 網格搜索的工作原理
網格搜索的工作原理可以形象地理解為在一個「網格」中進行搜索:
1. **定義超參數空間:** 首先,針對每個需要調優的超參數,定義一個**離散的、預定的值範圍或列表**。
* 例如,如果模型有兩個超參數:`learning_rate` 和 `num_epochs`。
* `learning_rate` 的候選值可能是 `[0.01, 0.1, 0.5]`
* `num_epochs` 的候選值可能是 `[10, 50, 100]`
2. **遍歷所有組合:** 網格搜索會**系統地遍歷所有這些超參數候選值的組合**。對於上述例子,它會嘗試:
* (0.01, 10)
* (0.01, 50)
* (0.01, 100)
* (0.1, 10)
* ...
* (0.5, 100)
總共 $3 \times 3 = 9$ 種組合。
3. **訓練與評估:** 對於每種超參數組合:
* 使用該組合的超參數來**訓練**一個機器學習模型(通常在訓練集上)。
* 在**驗證集(Validation Set)**上評估該模型的性能(例如,準確度、F1 分數、MSE 等)。
4. **選擇最佳組合:** 在所有組合都測試完畢後,選擇在驗證集上表現最佳的超參數組合作為最終的模型超參數。
#### 網格搜索的優點與缺點
**優點:**
* **簡單直觀:** 易於理解和實現。
* **全面性:** 如果超參數的最佳值在預定的網格範圍內,網格搜索理論上能夠找到它。
**缺點:**
* **計算成本高:** 隨著超參數數量和每個超參數候選值的增加,組合數量會呈指數級增長,導致計算時間非常長。這就是所謂的「維度災難」。
* **效率低下:** 它會遍歷所有組合,即使某些超參數對模型性能的影響很小,也會浪費大量的計算資源去嘗試它們的不同組合。
由於其計算成本高的缺點,在實際應用中,尤其是當超參數數量較多或每個超參數的搜索範圍較大時,人們常常會選擇更高效的調參方法,如隨機搜索(Random Search)或貝葉斯優化(Bayesian Optimization)。
---
### 其他選項的考量:
* **(A) 隨機選擇超參數組合進行測試:** 這描述的是**隨機搜索(Random Search)**。隨機搜索在預定範圍內隨機抽樣超參數組合,通常比網格搜索更高效。
* **(C) 透過代理模型逐步尋找最佳超參數:** 這描述的是**貝葉斯優化(Bayesian Optimization)**。它使用一個代理模型(通常是高斯過程)來建模超參數與模型性能之間的關係,並根據這個模型智能地選擇下一個要評估的超參數組合,以更快地找到最佳值。
* **(D) 僅依靠人工經驗調整超參數:** 這是最原始且效率最低的調參方式,通常只在初步探索或超參數數量極少時使用。它缺乏系統性和客觀性。
---
因此,網格搜索的標誌性特點就是其**窮舉式**地遍歷所有預定超參數組合的方式。
:::
22. 關於半監督式學習(Semi-supervised Learning),下列哪項描述最能反映其特性? (A) 僅使用大量標記數據進行訓練 (B) 僅使用無標記數據進行訓練 (C) 結合少量標記數據和大量無標記數據進行訓練 (D) 透過獎勵和懲罰機制學習最佳策略
:::spoiler **答案**
C
:::
23. 多模態學習(Multimodal Learning)作為機器學習模型評估內容之一,其主要處理的數據形式是什麼? (A) 僅限於文字數據 (B) 僅限於圖像數據 (C) 僅限於音訊數據 (D) 結合圖像、文字、音訊等多種模態數據
:::spoiler **答案**
D
:::
24. 在機器學習的數據處理中,「特徵工程」的主要目的為何? (A) 將數據轉換為文字格式 (B) 創造新的複合特徵以捕捉特徵間交互 (C) 減少數據的總量 (D) 僅限於刪除重複數據
:::spoiler **答案**
B
:::
25. 機器學習演算法中,「分類事物」的主要目的是什麼? (A) 預測連續數值 (B) 將數據點分組到不同的類別 (C) 找出數據之間的因果關係 (D) 壓縮數據維度
:::spoiler **答案**
B
:::
26. 關於機器學習的「數據品質」重要性,下列哪項描述是正確的? (A) 數據量越大越好,品質不重要 (B) 高品質數據是成功AI應用的關鍵 (C) 數據清洗和標註會降低數據真實性 (D) 數據品質僅影響模型的訓練速度
:::spoiler **答案**
B
:::
27. 下列哪種機器學習方法特別適合用於需要「試錯學習」和「長期規劃」的任務? (A) 監督式學習 (B) 非監督式學習 (C) 強化學習 (D) 半監督式學習
:::spoiler **答案**
C
:::
28. 在深度學習中,訓練數據反覆輸入神經網路時,網路內部的哪一項會不斷調整,使得模型能自動從數據中提取特徵? (A) 神經元數量 (B) 連接權重 (C) 輸入層大小 (D) 輸出層激活函數
:::spoiler **答案**
B
### 深度學習模型訓練的核心:權重調整
深度學習模型(尤其是神經網路)的學習過程,本質上就是透過反覆輸入訓練數據,並不斷調整其內部參數,以最小化預測誤差的過程。這些不斷調整的內部參數就是**連接權重(Connection Weights)**。
#### 1. 連接權重(Connection Weights)
* **定義:** 在神經網路中,每個神經元之間的連接都有一個相關的權重。這些權重決定了從一個神經元傳遞到另一個神經元的信號的強度或重要性。
* **學習的關鍵:** 在訓練過程中,神經網路會透過**反向傳播(Backpropagation)演算法**和**梯度下降(Gradient Descent)優化器**來調整這些權重。
* **反向傳播:** 計算模型預測值與真實標籤之間的誤差(損失函數),然後將這個誤差從輸出層反向傳播到輸入層。
* **梯度下降:** 根據誤差的反向傳播結果,計算每個權重對總誤差的貢獻(梯度),並沿著使誤差減小的方向微調權重。
* **提取特徵:** 透過不斷地調整這些權重,神經網路能夠從原始輸入數據中自動學習並提取出越來越抽象、越來越有意義的**特徵表示(Feature Representations)**。例如,在圖像識別中,底層的權重組合可能學習到邊緣和紋理,中層學習到局部形狀,高層則學習到物體的完整概念。
#### 2. 其他選項的考量:
* **(A) 神經元數量:** 神經元數量(即網路的深度和廣度)是神經網路架構的組成部分,它是在訓練開始前**預先定義的超參數**。一旦網路結構確定,在訓練過程中通常不會自動調整神經元的數量。
* **(C) 輸入層大小:** 輸入層的大小取決於輸入數據的維度(例如,圖像的像素數量或文本中單詞向量的維度)。這是一個**固定的設計參數**,在訓練過程中不會改變。
* **(D) 輸出層激活函數:** 輸出層的激活函數(例如 Sigmoid 用於二元分類,Softmax 用於多元分類,或 ReLU 用於迴歸等)也是在模型設計階段**預先選定的**,它決定了模型輸出的形式和範圍,在訓練過程中通常保持不變。
---
因此,正是神經網路中不斷調整的連接權重,賦予了深度學習模型從複雜數據中自動學習和提取有效特徵的能力,這是其強大性能的根本所在。
:::
29. 在機器學習模型的「優化器(Optimizer)」選擇中,Adam和SGD的主要作用是什麼? (A) 衡量模型生成的數據與真實數據之間的差異 (B) 更新模型的參數,使模型生成的數據越來越接近真實數據 (C) 防止模型過度學習訓練數據中的雜訊 (D) 調整模型的複雜度以提高泛化能力
:::spoiler **答案**
B
### 優化器(Optimizer)在機器學習中的作用
在機器學習,尤其是深度學習的訓練過程中,**優化器(Optimizer)** 扮演著至關重要的角色。它的核心功能是**調整模型的內部參數(主要是模型的權重和偏差)**,以**最小化損失函數(Loss Function)**的值。
想像一下,損失函數就像一個地形圖,地形的低谷代表著損失最小、模型表現最好的狀態。優化器的任務就是引導模型參數在地形上「下山」,最終找到損失最小的「谷底」。
#### Adam 和 SGD 都是常見的優化器
* **SGD (Stochastic Gradient Descent,隨機梯度下降)**:是最基本也是最常用的優化器之一。它透過計算損失函數對於模型參數的梯度(梯度指向損失增加最快的方向),然後沿著梯度的反方向(即損失減少最快的方向)更新參數。每次更新只使用一個或一小批(mini-batch)的數據樣本來計算梯度,因此「隨機」一詞。
* **Adam (Adaptive Moment Estimation,自適應矩估計)**:是一種更先進、更複雜的優化器。它結合了 RMSprop 和 AdaGrad 的優點,不僅能夠自適應地調整每個參數的學習率,還考慮了梯度的動量。這使得 Adam 在許多情況下收斂速度更快,並且對超參數的選擇不那麼敏感。
無論是 SGD 還是 Adam,它們的根本目標都是相同的:**透過迭代調整模型參數(如神經網路中的權重和偏差),使得模型的預測輸出(模型生成的數據)越來越接近真實的數據標籤**。當模型預測與真實數據之間的差異(即損失)最小化時,就代表模型學習到了數據中的模式和規律。
---
### 其他選項的考量:
* **(A) 衡量模型生成的數據與真實數據之間的差異:** 這描述的是**損失函數(Loss Function)**的作用,而不是優化器。損失函數用來量化模型的預測誤差。
* **(C) 防止模型過度學習訓練數據中的雜訊:** 這描述的是**正則化(Regularization)**技術(例如 L1/L2 正則化、Dropout)的作用。正則化是為了提高模型的泛化能力,避免在訓練數據上表現過好而在未見數據上表現不佳(過擬合)。
* **(D) 調整模型的複雜度以提高泛化能力:** 這可以是**模型架構設計(例如減少層數、節點數)**或**正則化**(如選項 C 所述)的作用。優化器本身並不直接調整模型的複雜度,而是尋找給定複雜度下最佳的參數值。
---
總而言之,優化器是機器學習模型學習過程中的「導航系統」,它根據損失函數的指引,不斷調整模型參數,讓模型從錯誤中學習,最終實現精準預測。
:::
30. 深度學習在電腦視覺領域的應用實例,不包括下列哪一項? (A) 影像辨識 (B) 物件偵測 (C) 語音轉文字 (D) 生成式模型
:::spoiler **答案**
C
:::
# L114 鑑別式 AI與生成式 AI概念 – 考題設計 (30題)
1. 鑑別式AI (Discriminative AI) 的主要目標是什麼? (A) 根據使用者輸入的提示詞生成新內容 (B) 學習數據的聯合分佈 P(x,y) (C) 透過試錯學習最佳行動策略 (D) 學習數據特徵與目標標記之間的條件概率 P(y|x)
:::spoiler **答案**
D
:::
2. 生成式AI (Generative AI) 的核心目標是什麼? (A) 區分不同類別的數據 (B) 找到最適合分類或迴歸的邊界 (C) 根據歷史數據預測未來趨勢 (D) 學習數據分佈並生成具有創新性的新數據樣本
:::spoiler **答案**
D
### 生成式 AI 的核心目標
**生成式 AI (Generative AI)** 是一種特殊的人工智慧模型,其主要任務是**創造**新的內容,而不是僅僅分析或預測現有數據。它的核心能力和目標可以分解為以下幾個方面:
#### 1. 學習數據分佈 (Learning Data Distribution)
* **說明:** 生成式 AI 模型的訓練過程,本質上是讓模型學習輸入數據的**底層分佈(underlying distribution)和模式**。這就像讓模型「理解」了數據的本質和規則。
* **例如:** 如果是學習人臉圖片的數據分佈,模型會學習到人臉的常見結構、特徵和變化範圍(如眼睛、鼻子、嘴巴的位置關係、膚色、髮型等)。
#### 2. 生成具有創新性的新數據樣本 (Generating Novel Data Samples)
* **說明:** 一旦模型「理解」了數據的分佈,它就能夠從這個學習到的分佈中**採樣(sample)**,創造出**全新的、以前從未見過但又與真實數據相似**的數據樣本。這些生成的內容並不是簡單的複製或組合,而是具有一定的「創新性」和多樣性。
* **例如:**
* **生成文字:** 根據給定的提示,生成一篇全新的文章、一首詩、一段程式碼,或是一個對話回應。
* **生成圖像:** 創造出不存在的逼真人臉、風景、藝術畫作,或將草圖轉換成逼真圖片。
* **生成音訊:** 生成新的音樂、語音。
* **生成影片:** 根據文字描述或圖像生成動態影片。
### 為什麼其他選項不正確?
* **(A) 區分不同類別的數據:** 這是**判別式模型(Discriminative Models)**的核心目標,例如圖像分類器,它們學習的是區分不同類別的界限。生成式模型通常不直接進行區分,而是生成數據。
* **(B) 找到最適合分類或迴歸的邊界:** 這也是**判別式模型**的目標,它們透過學習輸入特徵與輸出標籤之間的映射關係來劃分決策邊界,例如支援向量機(SVM)或羅吉斯迴歸。
* **(C) 根據歷史數據預測未來趨勢:** 這是**預測模型**(例如時間序列預測模型、迴歸模型)的核心目標。雖然生成式 AI 也可以用於一些預測相關任務(如預測下一句話),但其核心能力是創造,而不是僅僅預測未來數值或趨勢。
---
總之,生成式 AI 的魅力在於其「創造」的能力,它透過深入學習數據的內在模式,從而能夠產出符合該模式但又獨一無二的新內容。
---
還有其他關於生成式 AI 或其他機器學習概念的問題嗎?我很樂意為您解釋!
:::
3. 下列哪一項是鑑別式AI在實務應用中典型的任務? (A) 創建虛擬對話內容 (B) 自動生成音樂作品 (C) 圖像辨識與分類 (D) 生成逼真的語音樣本
:::spoiler **答案**
C
:::
4. 關於生成式AI的「固有變異性」(Inherent Variance),下列敘述何者正確? (A) 僅限於生成結構化數據 (B) 每次生成內容都相同,以確保穩定性 (C) 模型會自動修正所有偏見 (D) 即使輸入相同提示,也能產生不同的多樣化輸出
:::spoiler **答案**
D
### 生成式 AI 的「固有變異性」(Inherent Variance)
**「固有變異性」**是生成式 AI,特別是像大型語言模型(LLMs)或圖像生成模型,一個非常重要的特性。它指的是即使在**相同輸入條件或提示(prompt)**下,模型也能夠產生**多樣化且非重複的輸出內容**的能力。
#### 1. 變異性的體現
* **多樣性(Diversity):** 即使給予模型相同的指令,它也能生成多種不同的回答、圖片或文本。例如,要求模型寫一首關於「秋天」的詩,每次生成的詩歌內容和風格都可能略有不同。
* **創造性(Creativity):** 這種變異性是生成式 AI 展現其「創造性」的基礎。它不僅是簡單地複製或組合現有數據,而是能夠從其學習到的數據分佈中採樣,產生新的、獨特的內容。
* **非確定性(Non-determinism):** 這意味著模型的輸出不總是完全可預測的。即使是完全相同的輸入,由於模型內部的隨機性元素(如採樣過程中的隨機數生成),輸出也會有所不同。
#### 2. 為什麼會有這種變異性?
生成式 AI 的訓練目標是學習訓練數據的**潛在分佈(underlying distribution)**。一旦模型學習到這個分佈,它就能從中進行「採樣」,生成新的數據點。
在採樣過程中通常會引入隨機性:
* **溫度參數(Temperature):** 在文本生成中,一個稱為「溫度」的參數可以控制輸出的隨機性。溫度越高,輸出越隨機和多樣;溫度越低,輸出越確定和重複。
* **Top-k/Top-p 採樣:** 這些採樣策略也會在生成下一個 token(例如,單詞)時引入隨機性,而不是僅僅選擇機率最高的 token。
#### 3. 變異性的應用與挑戰
* **應用:** 這種變異性對於許多創意性應用至關重要,例如內容創作、藝術設計、遊戲開發中的資產生成等,因為它能提供多種選擇和靈感。
* **挑戰:** 另一方面,過高的變異性也可能導致模型生成不連貫、不相關或不可控的內容。這需要在「多樣性」和「一致性/可控性」之間找到平衡。
---
### 其他選項的考量:
* **(A) 僅限於生成結構化數據:** 生成式 AI 可以生成各種形式的數據,包括**非結構化數據**(如文本、圖像、音訊)和**結構化數據**(如表格數據)。其能力遠不止於結構化數據。
* **(B) 每次生成內容都相同,以確保穩定性:** 這與「固有變異性」的定義完全相反。如果每次生成內容都相同,模型就缺乏創造性和多樣性,也無法適應多種應用場景的需求。
* **(C) 模型會自動修正所有偏見:** 生成式 AI **不會自動修正所有偏見**。事實上,如果訓練數據中包含偏見,模型很可能會學習並放大這些偏見,導致生成帶有偏見的內容。解決偏見問題需要專門的技術和倫理考量。
---
因此,生成式 AI 的核心特性之一就是其內在的變異性,使得它能夠從相同輸入中產生多樣化的輸出,這也是其創造力的來源。
---
您對生成式 AI 的其他方面感興趣嗎?或者想了解如何控制這種變異性?
:::
5. 在鑑別式AI中,邏輯迴歸(Logistic Regression)主要用於解決哪類問題? (A) 數據聚類 (B) 二元分類問題 (C) 圖像生成 (D) 數值預測
:::spoiler **答案**
B
### 鑑別式 AI 與邏輯迴歸
**鑑別式 AI 模型 (Discriminative AI Models)** 的核心任務是學習**輸入特徵與輸出標籤之間的映射關係**,以便對新的、未見過的數據進行預測或分類。它們的目標是找到一個決策邊界,能夠將不同類別的數據點區分開來。
**邏輯迴歸(Logistic Regression)** 雖然名字中含有「迴歸」(Regression),但它實際上是一種**廣義線性模型(Generalized Linear Model)**,專門用於解決**分類問題**,特別是二元分類。
#### 邏輯迴歸如何解決二元分類問題?
1. **輸出機率:** 邏輯迴歸的核心是使用一個**S 型函數(Sigmoid Function)**(也稱為 Logistic Function)將線性迴歸模型的輸出轉換為一個介於 0 和 1 之間的機率值。這個機率值代表了某個數據點屬於「正類」(Positive Class)的可能性。
* 例如,在判斷一封郵件是否為垃圾郵件時,輸出的是該郵件是垃圾郵件的機率。
2. **決策邊界:** 透過設定一個**閾值(Threshold)**(通常是 0.5),模型可以將機率值轉換為最終的二元分類結果:
* 如果機率大於或等於閾值,則判斷為正類。
* 如果機率小於閾值,則判斷為負類。
這個閾值隱含地定義了一個將兩類數據分開的**決策邊界**。
3. **適用場景:**
* **垃圾郵件判斷:** 一封郵件是(正類)或不是(負類)垃圾郵件。
* **疾病診斷:** 病人是否(正類)患有某種疾病。
* **客戶流失預測:** 客戶是否(正類)會流失。
* **貸款核准:** 申請者是否(正類)會被核准貸款。
---
### 其他選項的考量:
* **(A) 數據聚類:** 數據聚類是一種**無監督學習任務**,目標是將數據點分組,而無需預先知道類別標籤。常用的演算法是 K-Means、DBSCAN 等,邏輯迴歸不適用於此。
* **(C) 圖像生成:** 圖像生成是**生成式 AI** 的任務,目標是創造新的圖像數據。常用的模型是生成對抗網路(GANs)、變分自編碼器(VAEs)等,邏輯迴歸無法用於圖像生成。
* **(D) 數值預測:** 數值預測(或連續值預測)是**迴歸問題**的範疇。例如,預測房價、氣溫等。雖然邏輯迴歸名字中有「迴歸」,但它的最終輸出是類別機率,而非連續數值。線性迴歸才是解決數值預測問題的典型方法。
---
因此,邏輯迴歸是二元分類問題中的一個基礎且重要的鑑別式模型,它幫助我們根據輸入特徵來判斷一個樣本屬於兩個類別中的哪一個。
:::
6. 支援向量機(Support Vector Machine, SVM)在鑑別式AI中,其核心思想為何? (A) 透過生成對抗來學習數據分佈 (B) 僅用於時間序列預測 (C) 自動生成程式碼 (D) 尋找最大化類別間隔的超平面
:::spoiler **答案**
D
### 支援向量機(Support Vector Machine, SVM)的核心思想
**支援向量機 (Support Vector Machine, SVM)** 是一種強大且廣泛使用的**監督式學習**模型,主要用於**分類和迴歸分析**。在鑑別式 AI 中,SVM 的核心目標是學習一個決策邊界,以便將不同類別的數據點有效地區分開來。
#### SVM 的核心概念:最大化類別間隔(Maximum Margin)
SVM 的基本思想非常直觀:
1. **超平面(Hyperplane):**
* 在二元分類問題中,SVM 的目標是找到一個在多維空間中將不同類別的數據點分開的**超平面**。
* 對於二維數據,這個超平面就是一條直線。對於三維數據,它是一個平面。對於更高維度的數據,它是一個無法視覺化的「超平面」。
2. **最大化間隔(Maximum Margin):**
* 如果存在多個超平面都可以將數據完美分開,SVM 會選擇那個**「離兩邊最近的數據點(即支援向量)最遠」的超平面**。
* 這個「最遠」的距離,就是所謂的**間隔(Margin)**。SVM 的目標是找到一個能使這個間隔**最大化**的超平面。
3. **支援向量(Support Vectors):**
* 那些最接近超平面的數據點(它們位於間隔的邊界上)被稱為**支援向量**。
* 只有這些支援向量才對最終的超平面位置有決定性影響。移除或移動其他不位於間隔內的數據點,通常不會改變最終的超平面。
#### 為什麼要最大化間隔?
最大化間隔的直觀意義在於,它能讓模型具有更好的**泛化能力(Generalization Ability)**:
* 一個「胖」的間隔(大間隔)表示決策邊界離兩類數據點都比較遠。
* 這使得模型在面對新的、未見過的數據時,能夠更穩健地進行分類,因為它對數據中的微小擾動或雜訊具有更高的容忍度。
* 換句話說,一個最大化間隔的超平面,能夠在分類準確性和模型對未來數據的穩健性之間找到一個很好的平衡。
#### 處理非線性可分數據:核技巧(Kernel Trick)
當數據在原始空間中不是線性可分時,SVM 會使用**核技巧(Kernel Trick)**。這允許 SVM 在不實際將數據映射到更高維度的情況下,計算數據在高維空間中的內積。這樣,即使原始數據是非線性可分,也能在高維空間中找到一個線性超平面來進行分類。
---
### 其他選項的考量:
* **(A) 透過生成對抗來學習數據分佈:** 這描述的是**生成對抗網路(Generative Adversarial Networks, GANs)**的核心思想,用於生成新的數據樣本。
* **(B) 僅用於時間序列預測:** SVM 可以用於迴歸(支援向量迴歸 SVR),但它並非專門或僅用於時間序列預測。時間序列預測有其特定的模型,如 ARIMA、LSTM 等。
* **(C) 自動生成程式碼:** 這屬於**生成式 AI** 的範疇,特別是大型語言模型(LLMs)的應用,與 SVM 的分類任務無關。
---
因此,SVM 透過尋找一個最大化兩類數據之間間隔的超平面,來建立其強大的分類能力。
---
:::
7. 鑑別式AI與生成式AI在「數據角色與目標」上的關鍵差異為何? (A) 鑑別式AI生成多樣化內容,生成式AI分類決策 (B) 鑑別式AI不需數據,生成式AI需少量數據 (C) 兩者目標完全相同 (D) 鑑別式AI基於數據分析進行分類與決策,生成式AI利用數據生成內容
:::spoiler **答案**
D
:::
8. 下列哪一項是生成式AI模型訓練過程中的重要階段? (A) 僅微調階段 (B) 僅部署階段 (C) 僅數據收集階段 (D) 訓練階段與微調階段
:::spoiler **答案**
D
:::
9. 生成式AI訓練過程中的「訓練階段」,主要目的是什麼? (A) 調整學習率和批量大小等超參數 (B) 提升模型在特定任務上的表現 (C) 為模型添加特定任務的層 (D) 讓模型學習語言的規律和模式,具備基本的語言理解和生成能力
:::spoiler **答案**
D
:::
10. 在生成式AI訓練過程中的「數據準備」環節,下列哪一項不是主要工作? (A) 數據蒐集 (B) 數據清洗 (C) 模型參數調整 (D) 數據預處理
:::spoiler **答案**
C
:::
11. 生成式AI模型訓練時,常用於衡量生成數據與真實數據之間差異的函數是什麼? (A) 激活函數 (Activation Function) (B) 損失函數 (Loss Function) (C) 評估函數 (Evaluation Function) (D) 梯度函數 (Gradient Function)
:::spoiler **答案**
B
### 什麼是損失函數(Loss Function)?
在機器學習和深度學習中,**損失函數(Loss Function)**是衡量模型預測結果與實際真實值之間**差異(或稱「誤差」)**的一個數學函數。它的輸出是一個非負的實數,值越小表示模型的預測結果越接近真實值,模型表現越好;反之,值越大表示模型預測的誤差越大。
#### 在生成式 AI 模型訓練中的應用
對於生成式 AI 模型,例如生成對抗網路(GANs)、變分自編碼器(VAEs)等,損失函數扮演著核心角色,引導模型學習如何生成逼真的新數據:
1. **衡量生成質量:** 損失函數用於量化生成器(Generator)生成的假數據與真實數據之間的相似度或差異。
2. **指導模型學習:** 在訓練過程中,模型會不斷調整其內部參數(如權重和偏差),以**最小化**這個損失函數的值。透過梯度下降等優化演算法,模型會朝著讓生成數據更接近真實數據的方向學習。
#### 常見的生成式 AI 損失函數範例
* **生成對抗網路 (GANs) 中的損失函數:**
* GANs 有兩個相互對抗的部分:一個**生成器 (Generator)** 和一個**判別器 (Discriminator)**。
* **判別器的損失函數:** 判別器試圖區分真實數據和生成器生成的假數據。它的損失函數衡量它判別的準確性。
* **生成器的損失函數:** 生成器試圖欺騙判別器,讓判別器認為它生成的數據是真的。生成器的損失函數衡量它欺騙判別器的成功程度。這兩個損失函數相互作用,推動模型不斷進步。
* **變分自編碼器 (VAEs) 中的損失函數:**
* VAEs 通常包含一個重建損失(Reconstruction Loss),衡量生成數據與原始輸入數據的相似度。
* 還有一個正則化損失(Regularization Loss,通常是 KL 散度),確保潛在空間(Latent Space)的良好結構。
---
### 其他選項的考量:
* **(A) 激活函數 (Activation Function):** 激活函數(如 ReLU、Sigmoid、Softmax)是神經元內部的一個非線性轉換,用於決定神經元的輸出。它使神經網路能夠學習複雜的非線性關係,但它本身不衡量誤差。
* **(C) 評估函數 (Evaluation Function):** 評估函數通常是一個更廣泛的概念,泛指用來衡量模型最終性能的任何指標(例如準確度、F1 分數、MSE 等)。損失函數是訓練過程中優化模型所使用的核心數學函數,而評估函數則用於在訓練完成後或訓練過程中定期檢查模型在特定指標上的表現。有時損失函數和評估函數會使用相同的數學形式,但它們在訓練過程中的角色不同。
* **(D) 梯度函數 (Gradient Function):** 梯度是損失函數對於模型參數的導數,它指示了損失函數增加最快的方向。優化器會沿著梯度的反方向調整參數,以最小化損失。所以梯度是損失函數的**計算結果**,用於指導優化,而不是衡量差異的函數本身。
---
總之,在生成式 AI 模型訓練中,損失函數是引導模型學習數據分佈並生成高品質新數據的關鍵數學工具。
---
您對生成式 AI 的具體損失函數類型或它們在模型訓練中如何發揮作用感興趣嗎?
:::
12. 關於生成式AI的「微調階段」(Fine-tuning),其目的最主要是什麼? (A) 僅用於測試模型在未知數據上的表現 (B) 降低模型的計算資源消耗 (C) 完全從零開始訓練一個新模型 (D) 在預訓練模型的基礎上,使用特定領域數據進一步優化模型表現
:::spoiler **答案**
D
### 生成式 AI 的「微調階段」(Fine-tuning)
生成式 AI 模型(特別是大型語言模型,LLMs)的訓練通常分為兩個主要階段:
1. **預訓練(Pre-training):** 這個階段使用**海量的、通用的、未標記的數據**來訓練一個基礎模型。模型在這個階段學習到語言的普遍規律、語法、常識和廣泛的知識。這個階段的模型通常非常龐大,計算成本極高。
2. **微調(Fine-tuning):** 在預訓練之後,模型已經具備了強大的通用能力。然而,如果我們想讓這個模型在**特定任務或特定領域**表現得更好,就需要進行微調。
#### 微調的核心目的:
微調的目的是**在預訓練模型的基礎上,使用特定領域或任務的數據,對模型進行小幅度的、有針對性的優化,使其能夠更好地適應特定的應用場景。**
具體來說,微調是為了:
* **提升任務特異性:** 讓模型學會處理某個特定任務的細微差別,例如情感分析、問答、摘要、程式碼生成等。
* **適應領域專業性:** 讓模型掌握特定領域的術語、知識和風格,例如醫療、法律、金融或特定行業的內部文件。
* **提升效能:** 透過學習目標任務的特點,進一步提升模型在該任務上的準確度、流暢度或相關性。
* **更有效率:** 相較於從零開始訓練一個模型,微調的成本(計算資源和時間)要低得多,因為模型已經學會了大部分通用知識。
#### 選項 (D) 舉例解釋:
想像你有一位非常博學的老師(這就是**預訓練模型**),他讀遍了所有網路上的知識、書籍、文章,幾乎什麼都懂(掌握了通用的語言和知識)。
現在,如果你希望這位老師專門去參加一個**醫學考試**:
* 你不會讓他從頭開始學習所有的生物、化學、人體解剖學(這就像從零開始訓練一個模型,成本太高了)。
* 你會給他一系列**醫學專業的參考書、過去的醫學考題和醫學案例分析**(這就是**特定領域數據**)。
* 這位老師會利用他原本就很淵博的知識基礎,快速地學習和理解這些醫學專門知識,並針對醫學考試的題型和重點進行強化練習,最終成為一個非常擅長醫學考試的老師。
在這個例子中:
* **博學的老師 = 預訓練模型**
* **醫學專業的參考書/考題/案例 = 特定領域數據**
* **強化練習和專攻醫學考試 = 微調**
* **成為擅長醫學考試的老師 = 優化模型在特定領域的表現**
透過微調,模型能將其廣泛的通用知識轉化為特定領域的專業能力。
---
### 其他選項的考量:
* **(A) 僅用於測試模型在未知數據上的表現:** 這是**模型評估(Model Evaluation)**的目的,而不是微調。微調是訓練過程的一個階段,而非評估。
* **(B) 降低模型的計算資源消耗:** 微調確實比預訓練節省資源,但其**目的**不是為了降低消耗,而是為了提升模型在特定任務上的性能,降低資源消耗是其**優勢**之一。
* **(C) 完全從零開始訓練一個新模型:** 這與微調的概念完全相反。微調是基於**已有的預訓練模型**,而從零開始訓練則需要龐大的數據集和計算資源,且通常只用於開發全新的基礎模型。
---
總之,微調是生成式 AI 模型從「通才」變為「專才」的關鍵步驟,它使得大型模型的部署和應用更具成本效益和針對性。
:::
13. 下列哪一項不是生成式AI在「內容真實性」方面可能面臨的挑戰? (A) AI可能產生錯誤新聞 (B) AI可能創造虛假圖片 (C) AI可能生成虛構資訊 (D) 模型輸出內容的可控性高
:::spoiler **答案**
D
:::
14. 生成式AI在應用中,為何會面臨「計算成本」的挑戰? (A) 模型訓練資料量太少 (B) AI模型無法進行平行運算 (C) 模型架構過於簡單 (D) 處理高解析度影像或大規模文本生成需要大量計算資源
:::spoiler **答案**
D
:::
15. 生成式AI的「可控性」(Controlability)低,主要指的是什麼挑戰? (A) 模型無法自主學習 (B) 模型運算速度緩慢 (C) 模型訓練數據難以獲取 (D) 模型輸出內容可能無法精確生成符合特定需求的結果
:::spoiler **答案**
D
:::
16. 鑑別式AI與生成式AI整合應用,如何解決「數據稀缺或不平衡」的問題? (A) 僅依賴外部顧問提供數據 (B) 透過鑑別式AI的模型壓縮技術 (C) 減少模型對數據量的依賴 (D) 生成式AI可生成多樣化且逼真的數據樣本進行數據增強
:::spoiler **答案**
D
:::
17. 在多模態數據處理中,鑑別式AI與生成式AI的整合應用通常如何分工? (A) 兩者共同負責生成數據,鑑別式AI進行數據轉換 (B) 鑑別式AI生成數據,生成式AI進行判斷 (C) 兩者均只處理單一模態數據 (D) 生成式AI負責跨模態數據的生成與轉換,鑑別式AI負責精確分類與決策
:::spoiler **答案**
D
:::
18. 鑑別式AI與生成式AI整合應用如何提升模型的「泛化能力」(Generalization)? (A) 僅依賴鑑別式AI的預測能力 (B) 減少模型參數數量 (C) 限制模型在特定場景下的應用 (D) 生成式AI生成多樣化數據樣本,擴展鑑別式AI的學習邊界
:::spoiler **答案**
D
### 鑑別式 AI 與生成式 AI 的整合如何提升泛化能力
首先,我們來快速回顧一下兩者的核心作用:
* **鑑別式 AI (Discriminative AI):** 學習如何區分或預測現有數據的標籤。它的目標是找到一個**決策邊界**,將不同類別的數據分開。例如,一個判斷照片中是否有貓的分類器。
* **生成式 AI (Generative AI):** 學習數據的**底層分佈**,並能從這個分佈中生成**全新的、逼真的數據樣本**。例如,一個能生成各種貓咪圖片的模型。
**模型的「泛化能力」(Generalization)**是指模型在面對**未見過的新數據**時,依然能夠保持良好性能的能力。一個泛化能力強的模型,不會只對訓練過的數據表現好,而是能夠將所學知識應用到更廣泛的真實世界情境中。
當鑑別式 AI 與生成式 AI 整合時,它們可以相互補充,顯著提升整體模型的泛化能力。選項 (D) 精準地描述了這種提升的核心機制。
#### 透過生成多樣化數據樣本,擴展學習邊界
這是兩種 AI 整合以提升泛化能力最常見且有效的方式:
1. **擴充訓練數據:**
* **挑戰:** 訓練鑑別式 AI 模型時,有時會面臨**數據不足或數據不平衡**的問題。尤其是在少數類(例如罕見疾病的影像、詐欺交易)數據不足時,模型很難充分學習其特徵,導致泛化能力受限。
* **生成式 AI 的作用:** 生成式 AI 可以根據已有的少量真實數據,學習其分佈,然後**生成大量逼真且多樣化的人工數據樣本**。
* **效益:** 這些由生成式 AI 生成的新數據,可以用來**擴充鑑別式模型的訓練集**。透過在更大、更多樣化的數據集上進行訓練,鑑別式模型能夠學習到更全面、更魯棒的特徵表示,從而**強化其決策邊界**,使其在面對真實世界中各種變體數據時,也能做出準確的判斷,顯著提升泛化能力。
2. **模擬邊緣案例與難點:**
* 生成式 AI 不僅能生成常見數據,還能生成介於不同類別之間、模糊不清的**邊緣案例(edge cases)**,或是在真實數據中稀有的**難點樣本(hard samples)**。
* 透過讓鑑別式模型學習這些由生成式 AI 創造的「難題」,可以強迫鑑別式模型改進其決策邊界,使其對這些複雜情況的判斷更加精準和穩健,進一步提高泛化能力。
3. **數據增強(Data Augmentation)的進階形式:**
* 傳統的數據增強(如圖像的旋轉、翻轉)是在不改變數據本質的情況下創造變體。
* 生成式 AI 則能創造出**全新的數據內容**,這是一種更高級的數據增強形式,能帶來更大的多樣性和數據分布的覆蓋率。
---
### 其他選項的考量:
* **(A) 僅依賴鑑別式 AI 的預測能力:** 如果僅依賴鑑別式 AI,當數據不足或存在偏差時,其泛化能力將會受限,這與整合的優勢背道而馳。
* **(B) 減少模型參數數量:** 減少模型參數通常是為了降低模型複雜度、避免過擬合,或降低計算成本,與直接透過數據擴展來提升泛化能力的方法不同。雖然合理的模型複雜度有助於泛化,但它不是鑑別式和生成式 AI 整合的主要目標。
* **(C) 限制模型在特定場景下的應用:** 泛化能力指的是模型能適用於**更廣泛**的場景,而限制應用範圍恰好是削弱了泛化能力。
:::
19. 在智慧城市管理中,鑑別式AI與生成式AI的整合應用能夠提供哪些價值? (A) 僅用於分析城市歷史數據 (B) 降低城市居民對AI技術的接受度 (C) 僅用於城市基礎設施的自動化維護 (D) 生成式AI模擬突發事件場景(如交通事故),供鑑別式AI預測風險並制定策略
:::spoiler **答案**
D
:::
20. 鑑別式AI與生成式AI整合,在「醫療影像診斷」中的具體應用模式是什麼? (A) 鑑別式AI生成病理影像,生成式AI進行診斷 (B) 兩者僅用於圖像壓縮 (C) 僅用於醫學影像的風格轉換 (D) 生成式AI生成真實感病理影像,用於訓練鑑別式AI模型提升分類準確性
:::spoiler **答案**
D
:::
21. 在網路安全防禦中,生成式AI與鑑別式AI的整合應用如何提升效率? (A) 鑑別式AI生成攻擊模式,生成式AI分析網路流量 (B) 僅用於加密網路數據 (C) 兩者僅用於網路流量的監控 (D) 生成式AI模擬潛在攻擊模式,鑑別式AI即時分析網路流量識別異常行為
:::spoiler **答案**
D
:::
22. 整合鑑別式AI與生成式AI系統,為何能提高「系統的靈活性與適應性」? (A) 僅透過減少系統的複雜度 (B) 限制系統與外部環境的互動 (C) 僅限於固定功能的應用 (D) 能根據不同需求動態調整數據生成與決策流程
:::spoiler **答案**
D
:::
23. 在智慧客服系統中,整合鑑別式AI與生成式AI如何提供更優質的服務? (A) 鑑別式AI生成回應文本,生成式AI進行內容過濾 (B) 兩者僅用於記錄客戶諮詢內容 (C) 僅用於提高客服人員的工作量 (D) 生成式AI生成多樣化回應文本,鑑別式AI過濾不當內容並確保可靠性
:::spoiler **答案**
D
:::
24. 鑑別式AI與生成式AI整合應用,提升「即時分析與回饋機制」的主要優勢是什麼? (A) 僅用於歷史數據分析 (B) 降低模型的計算成本 (C) 增加模型的訓練時間 (D) 有助於系統根據即時變化的環境條件迅速做出應對決策
:::spoiler **答案**
D
:::
25. 鑑別式AI與生成式AI整合應用,當生成數據放大訓練數據中的偏見時,可能導致何種問題? (A) 計算成本降低 (B) 系統效能提升 (C) 模型訓練速度加快 (D) 引發不公平問題
:::spoiler **答案**
D
:::
26. 解決生成式AI與鑑別式AI整合中「數據偏差與公平性」問題的策略,不包括下列哪項? (A) 引入去偏演算法 (B) 強化數據審核機制 (C) 確保數據的多樣性和代表性 (D) 僅使用單一來源數據
:::spoiler **答案**
D
:::
27. 在生成式AI與鑑別式AI的「整合架構設計與實現」中,會面臨哪些挑戰? (A) 數據收集自動化 (B) 降低系統的維護成本 (C) 僅需單一模型的訓練 (D) 模型之間無縫整合的技術與架構差異
:::spoiler **答案**
D
:::
28. 「提示工程」(Prompt Engineering)在生成式AI應用中扮演什麼角色? (A) 僅用於模型訓練數據的清洗 (B) 評估模型性能的唯一指標 (C) 僅用於鑑別式AI的分類任務 (D) 優化輸入提示詞以提升AI模型的輸出品質與精準度
:::spoiler **答案**
D
:::
29. 在生成式AI模型訓練時,為什麼需要設計一個適當的「損失函數」? (A) 決定模型的最終部署平台 (B) 僅用於數據加密 (C) 加速數據收集過程 (D) 衡量模型生成的數據與真實數據之間的差異
:::spoiler **答案**
D
:::
30. 生成式AI的訓練過程涉及學習語言的規律和模式,這主要發生在哪個階段? (A) 部署階段 (B) 訓練階段 (C) 風險評估階段 (D) 價值擴散階段
:::spoiler **答案**
B
### 生成式 AI 模型的訓練階段
在生成式 AI,特別是像大型語言模型(LLMs)這類模型中,**學習語言的規律和模式是其訓練過程的核心目的**。這個學習過程主要且絕大部分發生在模型的**訓練階段(Training Phase)**。
#### 訓練階段的解釋
1. **數據攝取與模式識別:** 在訓練階段,模型會被輸入**大量的文本數據**(例如,書籍、文章、網頁、對話等)。它透過這些數據學習語言的各種規律和模式,包括:
* **語法結構:** 詞語如何組成句子,句子如何組織成段落。
* **語義關係:** 詞語和概念之間的意義關聯。
* **上下文理解:** 如何根據前文理解後文,以及預測接下來的內容。
* **風格與語氣:** 學習不同文體的寫作風格和語氣。
* **世界知識:** 從文本中間接學習到關於世界的常識和事實。
2. **參數調整與優化:** 在這個階段,模型內部數以億計甚至兆計的**參數(主要是連接權重和偏差)**會不斷地進行調整和優化。模型會嘗試預測序列中的下一個詞元(token),然後根據預測錯誤來更新這些參數,直到模型能夠高度準確地捕捉到數據中的語言模式。這個過程通常透過**反向傳播(Backpropagation)**和**梯度下降優化器(Gradient Descent Optimizer)**來實現。
3. **預訓練(Pre-training)與微調(Fine-tuning):** 對於大型生成式 AI 模型來說,訓練階段又通常分為兩個子階段:
* **預訓練:** 使用海量通用數據,讓模型學習廣泛的語言知識和能力。
* **微調:** 在預訓練的基礎上,使用特定任務或領域的數據,進一步優化模型,使其適應特定應用。無論是預訓練還是微調,都屬於廣義的「訓練階段」。
---
### 其他選項的考量
* **(A) 部署階段(Deployment Phase):** 部署階段是指將訓練好的模型整合到實際應用系統中,使其可以被用戶使用。在這個階段,模型已經訓練完成,其參數是固定的(或很少會大規模調整),主要是執行預測或生成任務,而不是學習新的語言規律。
* **(C) 風險評估階段(Risk Assessment Phase):** 風險評估是在模型開發和部署的不同階段都會進行的活動,旨在識別和評估模型可能帶來的偏見、隱私、安全等風險。這是一個管理和審核的過程,而不是模型學習語言模式的階段。
* **(D) 價值擴散階段(Value Diffusion Phase):** 這不是機器學習或 AI 模型的標準開發階段術語。「價值擴散」可能指模型被廣泛應用後,其帶來的價值在社會或經濟中傳播的過程,與模型學習本身無關。
---
:::