paper notes
deep learning
V1 paper link
V1 Code
V2 paper link
V2 Code
V3 paper link
V3 Code
符號定義
Kernel 的 width and height
feature map 的 width and height
Input Channel 數量
Output Channel 數量 (Kernel 數量)
與其他類似網路的對比
V2在遇到 stride=2 的 3x3 Conv 的時候會取消使用 residual connection,因為輸入和輸出的尺寸會不一樣 (尺寸會減半)
V2 和其他網路對比其實在中間層的時候就參數量較少了
SENet 流程:
3. 最後透過 輸出 re-wight 後的 w * h * c2
Implementation of SENet in timm, using gating
SENet 可替換掉 inception block 或是 residual block
MobileNet V2
MobileNetV2 + Squeeze-and-Excite = MobileNetV3
使用 ReLU 的好處有兩個: