NLP recurrent
paper
link
BERT
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Big Bird
Big Bird: Transformers for Longer Sequences
Paper reading
A CONVLSTM-COMBINED HIERARCHICAL ATTENTION NETWORK FOR SALIENCY DETECTION (ICIP 2020)
上週問題
Block-wise attention mechanism
只是把H × W × C 的 C upsampling 後再做一次 CA
ConvLSTM
LSTM
進度報告
網頁
https://ndhu-divc.github.io/
目前在整理有用到的文件名稱,以方便往後修改
論文
目前正在讀
1.High-Performance Deep Neural Network-Based Tomato Plant Diseases and Pests Diagnosis System With Refinement Filter Bank
這篇論文,這也是目前少數用Detection來做病蟲害的論文
陌生人區別
如果是以deep learning的方式,目前看下來是以便是正確率為標準
與實際應用上有所差異,看到的討論主要是以Double Loss來計算差異,若超過某個值就判斷非此人
FaceNet: A Unified Embedding for Face Recognition and Clustering
學習每張人臉的歐幾里德距離,並輸出成維度1x1x128來表示特徵
主要貢獻是提出了一個loss function triplet sample(anchor, positive, negative)
不同於以往的single或 double loss