<!-- {%hackmd Ann29YtHQ064QvxqYLZF3w %}-->6.1.5~6.2.2 === [TOC] # 6.1.5 池化 pooling - 緩解卷積後對位置過於敏感的問題 - 跨度大於1時,圖形成倍減小,減少後續計算量,提高效率 - 輸入和輸出通道數不變 - 分類: - max pooling - average pooling - min pooling  --- # 6.2 卷積神經網路概述 全連接神經網路,輸入樣本必須用一維向量表示,不適合處理圖形 若將圖形攤平成一維 --> 效率低、無法找出內在結構(2維的鄰近像素特徵) 因此,多維資料適合用卷積網路處理 :::info ***標誌性事件:*** 2012年AlexNet獲得ImageNet[(link)](https://zh.wikipedia.org/zh-tw/ImageNet)的冠軍 --> 卷積神經網路受到重視 ::: ## 6.2.1 全連接神經元和卷積神經元 - **全連接神經元** - 對輸入特徵直接進行加權合 $\sum^n_{i=0}{\omega_i}*{\alpha_i}$ - 每個神經元的權值數量 == 輸入的特徵數目 --> 大 量 的 權 值 參 數 --> 大量使用記憶體 --> 模型複雜、易過擬合(參數過多) - 一個全連接神經元 --> 只產生**一個**輸出值 --> 需要很多全連接神經元才能璀取出足夠多的特徵 - **卷積神經元** - 僅用一個卷積核心進行卷積操作 - 使用的參數數目(通常)遠小於輸入的特徵數目 --> 有效防止過擬合 - 一個卷積神經元 --> 一個包含**多個特徵**的特徵圖(feature map)輸出 --> 只需少量神經元 卷積神經元 : 由上到下:arrow_down:,由左到右:arrow_right: 移動處理資料  :::warning 解析度小於原輸入(但效率較高) ::: ## 6.2.2 卷積層和卷積神經網路 - 卷積層: 全部都由卷積神經元所組成的層,通常用ReLU當啟動函數 - 卷積神經網路(最常用的三種網路層):卷積層、全連接層、池化層(通常用最大池化) :::info 卷積神經網路與人類觀察多維資料時的思考結構相似 ::: 問題:1.池化的目的是什麼? 2.舉出一個卷積神經元的優點 3.卷積神經網路通常用的池化是哪一種(平均池化,最大池化,最小池化)
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up