Ting

@abliu

Joined on Oct 17, 2016

  • # Transformer 李宏毅深度學習 ###### tags: `Deep Learning`, `Transformer`, , `seq2seq`, `Attention` 筆記內容參考於:https://youtu.be/ugWDIIOHtPA ![](https://i.imgur.com/ksAM6Ey.png) RNN: - 是最經典的處理Sequence的模型,單向RNN或雙向RNN等等。 - RNN的問題:難以平行處理=>就有人提出用CNN取代RNN CNN取代RNN: - CNN filters:每一個三角形代表一個filter輸入為seq的一小段,輸出一個數值(做內積得到),不同的filter對應seq中不同的部分。 - 每一個CNN只能考慮有限的內容,RNN能考慮一整個句子 - 考慮很長的句子:疊很多層CNN,上層的filter就可以考慮較多資訊,因為上層的filter會把下層的filter的輸出當作輸入 - 問題:必須疊很多層才有辦法做到考慮較長的句子,因此出現了self-attention機制 ## Self-Attention Laye
     Like 40 Bookmark
  • # 對抗生成網路 GAN介紹 李宏毅深度學習 ###### tags: `GAN`,`Deep Learning` 筆記內容參考於:https://youtu.be/ufcKFjdpT98 ## GAN的分類 ![](https://i.imgur.com/MKYcvIq.jpg) 1. Typical GAN 找一個generator(即一個function),輸入隨機向量,輸出為向量轉換**生成**的結果。例:收集很多動畫人物的頭像,把這些頭像餵給generator,generator學會產生出新的動畫人物頭像。 3. Conditional GAN 4. Unsupervised Conditional GAN ## Typical GAN:以產生動畫人物圖片為例 ![](https://i.imgur.com/RCQM6Nd.png) ### 訓練兩個NN - 架構取決於任務。例如:產生圖片的話NN架構通常會是CNN,產生文字、句子的NN架構通常會是RNN、LSTM等等 - 參數隨機初始化 - Generator:將低維向量轉換成高維向量 - Discrim
     Like 1 Bookmark