###### tags: `文獻閱讀` `專題討論` `onlyFirst` # Detach and Adapt: Learning Cross-Domain Disentangled Deep Representation ref: https://arxiv.org/abs/1705.01314 ### First time #### 解決問題 表示學習(representation learning)旨在學習資料的特徵,將數據轉為可進一步學習的特徵,即藉由識別解開(解糾纏)觀察資料和衍伸的學習模型之間的隱藏要素。因此挑戰在於使學習的結果具解釋性,並從抽象的表示中萃取出來。 表示分離(representation disentanglement)屬於一種學習任務,目的是導出一個特徵空間,該空間衍伸的表示有利於有興趣的特徵被識別和描述。一旦成功,可以相應生成具特徵屬性的輸出影像 其存在訓練資料的ground truth的依賴問題,若缺乏目標域資料則無法輕鬆完成,或者需仰賴遷移學習或域適應的幫助。 #### 採用方法 作者提出一個基於GAN的"跨域表示解糾纏"(Cross-Domain Representation Disentangler, CDRD),藉由觀察完整註釋(註解)的源域$X_S$以及沒有標註的目標域資料$X_T$,橋接跨域的資訊,並依此傳輸特徵。 <center><img src='https://i.imgur.com/kUhImWt.png'></center> #### 成果 * 第一個解決跨域資料表示分離問題的work * 提出用於同時解糾纏、適應的端到端框架,且源域是非監督式 * 提出模型允許有條件的跨域影像合成和轉譯 * 進一步解決屬性分類域適應任務,定性實驗結果驗證描述和識別具特定屬性的跨域資料能力。 ### Second ### Third