# Self-Training for Few-Shot Transfer Across Extreme Task Differences ###### tags : `few-shot learning` `transfer learning` ## :cat: Paper Info Conference : ICLR Year : 2021 Paper : [PDF](https://arxiv.org/pdf/2010.07734.pdf) Total Citation(Recent) : Refs : <br> ## :palm_tree: Abstract 教師ラベルが少ないようなFew-shotのセットアップのおいて、今までの主流は2通り。 Transfer learning ... Imagenetのような大規模データセットで学習、few-shotによる転移学習 Self-representation learning ... Few-shotと同じドメインの大規模データセットを用いた自己教師学習 しかし、transfer > self-repesentation のような報告もある。 そこで、大規模データセット(Labeled base dataset, source)とfew-shotとドメイン同一の中規模教師なしデータセット(unlabeled target domain data)を用いることを考える。 ![image](https://user-images.githubusercontent.com/38309191/121831622-d7dac700-cd02-11eb-9a3d-d9811303b148.png) <br> ## :fireworks: Method ![image](https://user-images.githubusercontent.com/38309191/121831885-9d255e80-cd03-11eb-8093-429d3c053352.png) <br> ## :bar_chart: Results <br> ## :ledger: Memo <br>