## 專家系統 1. Strong AI vs. Weak AI - 題目: - 解釋強人工智慧(Strong AI)與弱人工智慧(Weak AI)的區別。提供一個實際應用例子,說明它屬於哪一種。 - 解答與過程: - 強人工智慧是指具有人類智慧水平的人工智慧,具有自主學習和理解的能力。弱人工智慧則是針對特定任務的人工智慧,缺乏整體理解和自主學習的能力。例如,語音助手(如Siri)屬於弱人工智慧,因為它只能執行特定任務而缺乏整體理解。 2. Inference Methods - 題目: - 解釋正向鏈接(Forward Chaining)和反向鏈接(Backward Chaining)推論方法的區別。提供一個實際案例,說明何時應該使用每種方法。 - 解答與過程: - 正向鏈接是從事實推導結論,而反向鏈接是從目標向前推導。舉例來說,考慮一個診斷疾病的專家系統,正向鏈接可能從症狀開始,找到相應的疾病。反向鏈接則是根據已知的疾病目標,追溯到可能的症狀。 3. Shallow Knowledge vs. Deep Knowledge - 題目: - 解釋淺層知識(Shallow Knowledge)和深層知識(Deep Knowledge)的區別。給出一個實例,說明何時應該使用淺層知識,何時應該使用深層知識。 - 解答與過程: - 淺層知識指的是對事實的表面了解,而深層知識則是對事物更深層次的理解。舉例來說,一個旅行規劃專家系統可能使用淺層知識來提供關於飯店和交通的基本信息,而使用深層知識來理解特定旅客的個性和偏好。 4. Elements of an Expert System - 題目: - 列舉專家系統的基本元素。選擇其中一個元素,解釋其在專家系統中的角色和功能。 - 解答與過程: - 專家系統的基本元素包括知識庫、推理引擎、使用者介面和解釋器。以推理引擎為例,它負責根據知識庫中的規則進行推論,從而提供解答或建議。 5. Deductive Logic and Rules of Inference - 題目: - 解釋演繹邏輯(Deductive Logic)和推理規則(Rules of Inference)之間的關係。提供一個實例,說明如何應用演繹邏輯和推理規則解決問題。 - 解答與過程: - 演繹邏輯是由一般性到特殊性的推理,而推理規則是根據邏輯規則進行推斷的方法。舉例來說,使用演繹邏輯,如果所有人類都會死亡,那麼某個特定的人類也將會死亡。推理規則則可以是Modus Ponens,即如果A成立,且A蘊含B,那麼B成立。 ## 神經網路 1. 神經元(Neuron): - 結構: 神經元是神經網路的基本單元,具有多個輸入和一個輸出。 - 功能: 神經元通過權重(weights)和激活函數(activation function)處理輸入,產生輸出。 2. 神經網路結構: - 層(Layer): 神經網路由多個層組成,包括輸入層、隱藏層(可能有多層)、輸出層。 - 連接(Connection): 神經元之間的連接具有權重,權重反映了信號的重要性。 3. 前向傳播(Forward Propagation): - 定義: 訓練過程中,輸入數據通過網路,逐層計算並產生輸出。 - 過程: 輸入乘以權重,經過激活函數後得到輸出,然後作為下一層的輸入。 4. 激活函數(Activation Function): - 作用: 用於引入非線性,使神經網路能夠學習複雜的模式。 - 例子: Sigmoid、ReLU(Rectified Linear Unit)、Tanh等。 5. 損失函數(Loss Function): - 目的: 衡量模型預測與實際值之間的差異。 - 訓練目標: 通過最小化損失函數,使模型的預測更接近實際值。 6. 反向傳播(Backpropagation): - 定義: 用於訓練神經網路的算法,通過調整權重以最小化損失函數。 - 過程: 從輸出層向後計算梯度,根據梯度更新權重。 7. 優化算法(Optimization Algorithm): - 定義: 用於調整神經網路參數以最小化損失的算法。 - 例子: 梯度下降(Gradient Descent)、Adam、RMSprop等。 8. 訓練集、驗證集和測試集: - 訓練集: 用於訓練模型的數據。 - 驗證集: 用於調整模型超參數,避免過度擬合。 - 測試集: 用於評估模型性能的獨立數據集。 --- 1. The Limits of Traditional Computer Programs - Question: - 解釋傳統電腦程式在處理複雜問題時可能遇到的限制,並說明為何人工智慧和神經網路能夠克服這些限制。 - Answer: - 傳統電腦程式在處理複雜問題時受限於手動編碼規則的能力。人工智慧和神經網路通過學習從數據中提取模式,自動調整模型的參數,從而能夠處理複雜且抽象的問題,而不需要顯式的規則編碼。 2. Feed Forward Neural Networks (FFN) - Question: - 什麼是前饋神經網路(Feed Forward Neural Networks)?請簡要描述它的結構和工作原理。 - Answer: - 前饋神經網路是一種基本的神經網路結構,信息傳遞是單向的,沒有循環。它包括輸入層、隱藏層和輸出層。每個神經元接收來自前一層的輸出,並通過權重和偏差進行線性組合,然後通過激活函數產生最終的輸出。 3. Sigmoid, Tanh, and ReLU Neurons - Question: - 解釋 Sigmoid、Tanh 和 ReLU 激活函數的特點,並討論它們在神經網路中的應用。 - Answer: - Sigmoid 函數將輸入映射到範圍 (0, 1),主要用於二元分類的輸出層。然而,它存在梯度消失的問題。 - Tanh 函數將輸入映射到範圍 (-1, 1),相對於 Sigmoid,它的輸出有更好的分佈。同樣存在梯度消失問題。 - ReLU 函數在正數時輸出輸入值,負數時輸出零,解決了梯度消失問題,常用於中間層。 4. Gradient Descent - Question: - 說明梯度下降算法的基本原理,並討論學習速率(Learning Rate)的影響。 - Answer: - 梯度下降是通過計算損失函數對模型參數的梯度,然後以負梯度方向更新參數,以最小化損失。學習速率是每次參數更新的步長,過大可能導致震盪,過小可能收斂太慢。選擇合適的學習速率至關重要。 5. Backpropagation Algorithm - Question: - 詳細解釋反向傳播算法(Backpropagation Algorithm)的步驟,包括前向傳播和反向傳播的過程。 - Answer: - 反向傳播通過計算損失函數對每個參數的梯度,然後使用梯度下降更新參數。前向傳播計算預測輸出,反向傳播計算梯度,然後將梯度從輸出層向輸入層傳播。這個過程迭代進行,直到收斂。 6. Dropout - Question: - 什麼是 Dropout?請解釋它在神經網路中的作用,以及如何實現。 - Answer: - Dropout 是一種正則化技術,通過在訓練過程中隨機丟棄部分神經元,防止模型對某些特定特徵的依賴,從而提高模型的泛化能力。實現方式是在每次訓練迭代中,隨機將某些神經元的輸出設為零。
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up