---
# System prepended metadata

title: 高等人工智慧

---

# 高等人工智慧
***3/10***
![](https://i.imgur.com/9kGlAjD.png)
AI主要重要的部分分成三大類
1.學習
2.知識儲存記憶能力
3.推理及判斷之能力
目前AI的問題是在於轉換硬體的速度
現今的AI要做到行動像人都是以圖靈測試為基準
那要讓AI做到行動像人需要包含以下四大特性
1.自然語言表示
2.知識的表示(知識圖譜)
3.自動推論(貝氏推論技術)
4.機器學習
![](https://i.imgur.com/8yZVGPF.png)
![](https://i.imgur.com/kbEEMs9.png)

***3/17 Agents***
![](https://i.imgur.com/TM7mA9L.png)
這章主要討論理性行為
1.討論Agent的特質
2.評估環境的特質
3.Agent的類型
![](https://i.imgur.com/QwMY4TN.png)
2.1
Agent總共有兩種行為一個是感測環境另一個則是行動
![](https://i.imgur.com/7v0JItN.png)
在上圖中可得知有以一下三個Agent的概念
1.human Agent(人類):人類的感測是由眼睛、耳朵以及一些器官所組成的，那你的自動器則是以手、腿、聲音等由這些來去執行的。
2.robtic agent(機器人):機器人的感測器可以用攝影機或者是紅外線等來做感測，那它的行動則是透過各種馬達使機器人可以做出各種行動。
3.software agent(軟體):其實google的搜尋引擎就是屬於軟體的agent，通常這類的agent具有學習能力，它的感測來自於鍵盤、檔案或者事封包來進行感測。
感知會分為兩個概念:
1.感知一個點
2.感知一序列
![](https://i.imgur.com/SG2E2I4.png)
我們要處理的問題是動態的話就是一個微分方程(電腦視覺就是動態)
我們要處理的問題是靜態的話就是一個函數關係
2.2什麼叫好的行為
![](https://i.imgur.com/QOCOcrA.png)
Rationality
1.性能量測的指標且可以定義在什麼情況下是成功
2.Agent內建環境的知識
3.我們設計的動作Agent可以完成
4.可以感知到最新的資料

理性只要是在當下是最好最佳就可以並不是要最安全

2-3
![](https://i.imgur.com/ak56Ei6.png)
工作環境是一個很重要的指標
做AI一定要對你的題目做PEAS的了解

環境是全部可觀還是部份可觀
環境在設計上是確定性還是隨機性
如是隨機性就會較為複雜
但如果是不確定性就必須知道事件
靜態就是一個函數
動態的話是一個微分方程
考慮環境是靜態還是動態
靜態+時間的話就屬於半動態
你的環境是知道還是不知道
當一個專案的環境是一個不知道、是隨機的、需要多個Agent的等會是一個很困難情況
2-4
Agents=一個架構+程式
要讓查表(Lookup table)比較快就須做平行處理
![](https://i.imgur.com/VUxPaU0.png)
![](https://i.imgur.com/xLnPkFl.png)
邏輯越強的話可解釋性Model就越大
Goal-based agents
他主要是在model-based agent 上的改進，所以它會有目標的資訊
Utility-based agents
![](https://i.imgur.com/UrHv76G.png)
![](ht5tps://i.imgur.com/8cSHbdy.png)
Learning Agents
![](https://i.imgur.com/kZEFtEX.png)

***3/24***
Agent繼承關係圖
![](https://i.imgur.com/jICMv6O.png)
Muti-Agent是未來分散式AI的主要架構
做遊戲設計或是控制很常使用強化式學習
只要Agent架構裡面有reword(獎勵)的話就是強化式學習
加群平均是非線性的
![](https://i.imgur.com/gc7kgcN.png)

***3/31***
![](https://i.imgur.com/MIGCipa.png)
模糊系統在AI
AI在處理不確定性問題主要是用貝式理論、模糊理論

弱AI的部分:雖然可以取代人部分且學習能力強但它可解釋度低，不可靠
強AI的部分:
圖神經網路與隨機森林可解釋度高也是現今比較熱議的
softmax層其實就是簡化版的模糊系統
可解釋性AI概念:
它可以藉由模糊系統或者是圖像AI等，讓使用者知道今天訓練出來的結果是以什麼為基準去得出的結果
![](https://i.imgur.com/rs2xE0U.png)
如果我們要做模糊處理那輸入必須做模糊化
區間性的模糊集合是有上下性的
模糊集合只有中間式精準的其他是層度
投影可以算是模糊的降維
模糊運算他的交集(相加)取最大值聯集(相乘)取最小值
![](https://i.imgur.com/68wRRjH.png)
![](https://i.imgur.com/j84WAOb.png)
![](https://i.imgur.com/OQykeqW.png)
![](https://i.imgur.com/pcvxDDA.png)
![](https://i.imgur.com/ug3BvJ3.png)
![](https://i.imgur.com/3sna7AO.png)
![](https://i.imgur.com/Gzm4qkG.png)
Fuzzy整合可以從觀點1圖中裡的這四大領域做結合，且Fuzzy它就像我們人的左腦邏輯運算一樣使AI的思考可以更像人。
![](https://i.imgur.com/fNnsoXf.png)
Fuzzy logic缺點:是需要Knowledge base的提供，如果沒有專家去建立的話沒辦法做應用開發。
模糊推論系統(FIS):
1.每次輸入會是精準值須做模糊化變成模糊輸入。
2.做完模糊推論的規則會產出模糊集合輸出。
3.想要有精確的輸出必須做Defuzzifer。
4.在做建模糊化、推論工程、解模糊化需要有模糊知識庫。
知識建立:
1.將問題變成符號表示概念，也就是圖中IF then架構。
2.藉由此架構建立映射的關係
3.在建模時y會依解決問題來去表示當下示微分方程還是函數的關係
![](https://i.imgur.com/x1SGXye.png)
模糊數:模糊數是針對模糊集合的某些動作做限制。
![](https://i.imgur.com/b8r4Y11.png)
模糊集合方法:
1.模糊關係
2.模糊數
3.延伸定理
4.模糊最佳化
模糊測度方法:
1.模糊積分
模糊邏輯方法:
1.語言變數
2.模糊演算法
3.近似推論(在做模糊邏輯比較重要的地方)
![](https://i.imgur.com/v1QuIdT.png)
模糊集合如果是離散的話會像圖中底下那串供式表示。
模糊集合如果是連續型的則是會使用圖中底下的積分公式表示。
![](https://i.imgur.com/YYDof2b.png)
![](https://i.imgur.com/9zfoI8O.png)
![](https://i.imgur.com/Fhh4rxq.png)
![](https://i.imgur.com/J8FfiAC.png)
![](https://i.imgur.com/vP7qgUk.png)
單條條rule:不用擔心有聚合的問題
多條rule:則需要擔心聚合、已經要取最大值或是最小值等問題
![](https://i.imgur.com/GWsf4wJ.png)
高斯兩條rule的計算
![](https://i.imgur.com/HIjIwTz.png)
![](https://i.imgur.com/ToFNFFG.png)
聚合概念
AND運算:
1.取最小值
2.rule是交集

OR運算:
1.取最大值
2.rule聯集
![](https://i.imgur.com/76eaNrB.png)
![](https://i.imgur.com/wkNm5AC.png)
![](https://i.imgur.com/CExXXNK.png)
在TSK Fuzzy Model裡 z這個函數可以用線性、非線性或者是微分方程式來表示。
且此Model在做模糊整合較為簡單
![](https://i.imgur.com/6XT2U7z.png)
![](https://i.imgur.com/KUa0tRl.png)
解模糊化可以用圖中5種做法
其中重心法COA運算較為複雜所以比較難做
![](https://i.imgur.com/GSSCsAU.png)
![](https://i.imgur.com/pyw43FC.png)
***4/14***
![](https://i.imgur.com/y8NYoqL.png)
![](https://i.imgur.com/yNxgJt6.png)
![](https://i.imgur.com/m2rUHnW.png)
Type-2 Fuzzy
與前一代不同的是他比較一般化，且較為複雜可以處理較多的不確定性
Type-2要做解模化可能會要降成一階
聯集 maxmum
![](https://i.imgur.com/XgOCD8s.png)

4/28
***NLP(自然語言處理&神經網路語言處理)***
![](https://i.imgur.com/2j8lVar.png)
![](https://i.imgur.com/UqjsWem.png)
![](https://i.imgur.com/Hgzfji9.png)
![](https://i.imgur.com/0PQmn4Y.png)
NLP=NLU(語言理解)+NLG(語言產生)
![](https://i.imgur.com/yLQwVS4.png)
![](https://i.imgur.com/LR2NVDd.png)
![](https://i.imgur.com/g4WNX8H.png)
![](https://i.imgur.com/V3pdUPK.png)
![](https://i.imgur.com/mlOjBkz.png)
![](https://i.imgur.com/l7MyBed.png)

向量:200~400

***強化學習***
強化式學習就是屬於監督式還是非監督式學習這兩種則中去做(例:離散學習也算是強化式學習)
![](https://i.imgur.com/C37SXIr.png)
強化式學習可以分成兩大類分別為:
1.MDP已知
模型會使用動態規劃分以下兩種:
(1).策略迭帶
(2).值迭帶
可以藉由以上兩種迭帶方法讓model知道目前訓練出來的結果好不好
2.MDP未知
馬可夫決策過程是隨機(不確定性)的輸入模式所以須使用MDP
模型藉由以下兩種建表來得出最好的結果:
(1.)蒙地卡羅方法
(2.)時序差分
但這種方法無法知道決策過程
![](https://i.imgur.com/8CsDW6u.png)
Model based 方法取樣較快原因是建立在Model是在已知決策過程中條件下取樣效率相對應較快
Off-policy概念:把學習過程用表格建起來，或者用模擬器嘗試把未知的東西用表格建起來，也因為這原因在用這種方法做學習model取樣效率也會比On-policy來的好
![](https://i.imgur.com/iwftYtp.png)
![](https://i.imgur.com/livQcx0.png)
![](https://i.imgur.com/ITO5gt2.png)
Agent會透過以下三種跟環境去做連結與變化並給予相對應的獎勵或評斷
1.Observation:觀察當下的狀態
2.Action:對當下的狀態去做策略
3.Reward:可以透過這函數去做評論
![](https://i.imgur.com/FfTpolB.png)

![](https://i.imgur.com/o66Ovvq.png)

![](https://i.imgur.com/5X5dWek.png)

![](https://i.imgur.com/KMLjc19.png)
![](https://i.imgur.com/abNpDa6.png)
在強化式學習裡獎勵函數可分成Rewards、Returns
Rewards、Returns兩者差異:
Rewards:它每次獎勵的內容會隨則次數增加而將獎勵內容逐漸變少(比較看重第一步好不好)
Returns:它每獎勵的內容都一致不會有獎勵變少問題
![](https://i.imgur.com/xsQgeP1.png)
State-value:是將Action做期望值
Optimal action-value:是在取最大值
![](https://i.imgur.com/pAZs8ID.png)
![](https://i.imgur.com/LLctzbj.png)

![](https://i.imgur.com/zeX1qMM.png)
![](https://i.imgur.com/DD8UTA9.png)
![](https://i.imgur.com/lbP3TPy.png)
![](https://i.imgur.com/abwsWqW.png)
![](https://i.imgur.com/1LP1Zzc.png)

![](https://i.imgur.com/JBfWnfM.png)

![](https://i.imgur.com/Ba24Gs4.png)
![](https://i.imgur.com/dPMgSuy.png)
![](https://i.imgur.com/TE22vvm.png)
![](https://i.imgur.com/tS0eO7r.png)
![](https://i.imgur.com/SdqMaqp.png)
![](https://i.imgur.com/dRyMCZd.png)
![](https://i.imgur.com/3UxTJkh.png)
![](https://i.imgur.com/bkeyZyb.png)
![](https://i.imgur.com/9eUcgZ4.png)
![](https://i.imgur.com/xKaEEdt.png)
![](https://i.imgur.com/sMZUb6O.png)
![](https://i.imgur.com/mExcGRf.png)
![](https://i.imgur.com/IoSUxM1.png)
![](https://i.imgur.com/59M2W0f.png)
![](https://i.imgur.com/vxVi5Zz.png)
![](https://i.imgur.com/uRr0pqx.png)
![](https://i.imgur.com/0kULBF2.png)
![](https://i.imgur.com/vm4b7Pk.png)
![](https://i.imgur.com/VnQw5Xj.png)
![](https://i.imgur.com/hXbm0Gb.png)
![](https://i.imgur.com/uswryNO.png)
![](https://i.imgur.com/5q7NQVP.png)
![](https://i.imgur.com/Jzyp7f2.png)
![](https://i.imgur.com/L9ON11x.png)









---

## 開放教育平台-影片(簡短重點)



物件偵測主要目的在於可以定位物體和辨識物體，那物件偵測又分為2大偵測方式
1. Two stages detection(二段式偵測) 
2. single stage  detection(一段式偵測)

二段式偵測主要偵測速度慢但是辨識物體準確度高
一段式偵測主要偵測速度快但是辨識物體準確度相對二段式偵測低


![](https://i.imgur.com/xl7CaDI.png)

### 演算法

一段式偵測的物件偵測演算法的代表為
Yolo (You Only Look Once)和SSD...

二段式偵測為
1.R-CNN、2.Fast R-CNN、3.Fasted R-CNN和4. R-FCN ...



### 評估模型好壞的指標

![](https://i.imgur.com/12l4fai.png)



1.TP(True Positive)、2. FP(False Positive)、3. TN(True Negative)和4. FN(False Negative)。此外也利用這4種指標延伸出了2種新指標為Precision(精確度)和recall(召回率)



![](https://i.imgur.com/QwCUsRn.png)



### Training(訓練)和Inference(推論)的不同


![](https://i.imgur.com/DWfOd0o.png)



### 深度學習的模型壓縮和加速



最常見的方法為Purning(裁剪)。那Purning有許多種方式。
1. weighting Purning(權重裁剪)
2. Layer Purning(層數裁剪)
3. Channel Purning(通道裁剪)等許多方式進行壓縮


![](https://i.imgur.com/3dSGMFy.png)


![](https://i.imgur.com/fmdgUxK.png)
