# 2020_CCU_Machine_Learning_hw3 ## Q1 : 請用參考程式以及CelebA 資料集訓練生成對抗網路,比較step 0, 50, 100, 200 的生成結果。 * 生成結果如下 * step 1  * step 50  * step 100  * step 200  * 整個過程如下  * Generator & Discriminator loss  :::info * 結果 * 因為要比較 `step` 間的差異所以用 `Fixed_result` 來觀察。 * 可以發現隨著 `step` 數的增加,五官、輪廓等的人臉特徵也變得更明顯。 * `Generator` 的 `loss` 隨著 `step` 增加而減少,`Discriminator loss` 比較不穩定。 ::: --- ## Q2 : 觀察模型訓練過程Model Loss vs. Epoch 的圖,與CNN模型訓練時Loss曲線的差異。 * CNN Loss 曲線 * 此為愛文芒果比賽的數據  * GAN Loss 曲線 * 此為Q1的 Loss 曲線  :::info * 結果 * 這 2 種的 `Loss` 曲線差異蠻大的,`CNN Loss` 曲線是 `training loss` 跟 `validation loss` 隨著 step 數增加而下降。 * `GAN Loss`曲線則是 `Generator Loss` 隨著step數增加而上升,`Discriminator Loss` 隨著step數增加而下降。 ::: --- ## Q3 : 使用Normal Distribution Generating Fake Images using N(0, 1)、N(-10, 1) 與Uniform Distribution U(0,1),比較生成結果的差異並討論原因。 * `N(0,1)` * 即 Q1 ,變化過程如下  * Generator & Discriminator loss  * `N(-10,1)` * step 1  * step 20  * step 40  * step 60  * 後段 loss  * 整體 loss  :::info * 結果 * 因為後段的 `Discriminator loss` 歸零所以中斷訓練。 * 無法成功的訓練出模型。 ::: * `U(0,1)` * 過程如圖  * Loss 曲線  :::info * 結果 * 無法成功的訓練出模型。 ::: :::success * Q3 討論 * N(-10,1) 因為雜訊太高所以無法成功訓練模型。 * U(0,1) 也無法成功訓練出模型。 ::: --- ## Q4 : 使用其他外部的人臉dataset,比較是否能增進人臉生成的Quality。 * 30000 張照片( 原始 ) * 過程  * Generator & Discriminator loss  * 41000 張照片 * 過程  * Loss 曲線  --- * 其他跑到一半掛掉的 Loss 曲線 * 41000 張照片跑到 epoch 157 :cry:  * 載錯圖片,載成 jpg 檔的 46000 張 :cry:  :::info * 結果 * 這個部分訓練了4次,不知道為什麼 kaggle server 有時候會無法讀取 output 。:cry: * 雖然資料比數沒差很多,但是可以發現 41000 張照片的模型產生出來的人臉品質高了一些,礙於 kaggle server quota 不足所以只跑個 41000 張做比較。 :::
×
Sign in
Email
Password
Forgot password
or
By clicking below, you agree to our
terms of service
.
Sign in via Facebook
Sign in via Twitter
Sign in via GitHub
Sign in via Dropbox
Sign in with Wallet
Wallet (
)
Connect another wallet
New to HackMD?
Sign up