# 李宏毅_ATDL_Lecture_20 ###### tags: `Hung-yi Lee` `NTU` `Advance Topics in Deep Learning` [課程撥放清單](https://www.youtube.com/channel/UC2ggjtuuWvxrHHHiaDH1dlQ/playlists) ## Ensemble of GAN [課程連結](https://www.youtube.com/watch?v=1DlTX9srmvE&list=PLJV_el3uVTsPMxPbjeX7PicgWbY7F8wW9&index=20) ### Observation ![](https://i.imgur.com/JPyfZ27.png) [論文連結_Ensembles of Generative Adversarial Networks](https://arxiv.org/abs/1612.00991) 上圖下排是左是某一次迭代的影像,右邊則是下一次迭代的影像,可以看的到,影像的品質已經是都很好,但左邊生成是綠色多,而右邊生成是白色多。GAN存在著Mode Collapse的問題,可以看的到生成的影像不再變化但模式會。 可以看右上人臉生成,幾乎生成的臉都是相同,但唯膚色有非常大的差異,訓練到最後就會發現,人臉已經無法更真實,因此只會在膚色間切換。 ### Ensemble of GAN ![](https://i.imgur.com/YLl0X4Q.png) Ensemble of GAN中用三種方法來實作Ensemble: * Standard ensemble of GAN * 訓練一堆GAN,假設五個GAN,那就有五個Generator,每次生成都隨機從某一個Generator來生成,即使Generator生成已固定,但五個就至少會有五個不同可能。 * Self-ensemble of GAN * 我們已經知道,每次迭代的生成影像都是不同,所以我們把不同迭代的Generator集合起來再產生Output,就是Self-ensemble。 * 過程中保存不同迭代的參數,生成影像的時候隨機抽一個出來做為生成影像的參數即可。 * Cascade of GAN * 先訓練一個GAN,看那些影像是這個GAN不容易產生的,這可以利用Discriminator來辨識,只要真實照片經過Discriminator置信度非常高,那就代表這類照片是Generator不會生成的影像<sub>(可見Lecture_19說明)</sub>。 * 取得第一個GAN不容易產生的照片之後,將那些照片集合起來,再訓練第二個GAN,一直下去,最終得到一把GAN。 ### Generative Adversarial Parallelization ![](https://i.imgur.com/mnQzwyM.png) [論文連結_Generating images with recurrent adversarial networks](https://arxiv.org/pdf/1602.05110.pdf) 直觀來看,每一個Generator都有它的相對應對手Discriminator,評估Generator的方式就採用交換對手的方式,G1原本搭配D1,但testing的時候就讓G1對上D2,以此方式看誰生成的影像比較真實。 ### Generative Adversarial Parallelization ![](https://i.imgur.com/WPbeGKJ.png) [論文連結_Generative Adversarial Parallelization](https://arxiv.org/abs/1612.04021) 這圖百分之百由原始論文取出。 每一個悟空都代表一個Generator,每一個悟空都有不同的師父Discriminator,過程中不斷的交換師父,這用種方式讓Generator更具有魯棒性。 ### Generative Adversarial Parallelization ![](https://i.imgur.com/0V1ba6A.png) 這種方式訓練出來的GAN比較不具有Mode Collapse的情形。 ### MIX + GAN ![](https://i.imgur.com/C7aUGqb.png) [參考連結_Generalization and Equilibrium in Generative Adversarial Networks (GANs)](http://www.offconvex.org/2017/03/30/GANs2/) ### To learn more.. ![](https://i.imgur.com/8EstFs7.png)