CVPR 2022
Lihe Yang, Wei Zhuo, Lei Qi, Yinghuan Shi, Yang Gao
近年來隨著Semi-supervised technique(SSL)的不斷發展,consistency regularization的方式逐漸受到重視,促使了日益複雜的模型結構,作者認為傳統的self-training經過改良後也可以適用於SSL的訓練過程中,不需依賴過於精細的輔助模組,可在semi-supervised semantic segmentation中達成不錯的成效。
與原先的self-learning不同處在於他會針對輸入來自unlabel data的照片再做一次strong augmentation,再與teacher生成的pseudo label做cross entropy。
作者認為可以採用不同訓練階段的預測來計算pseudo label穩定度,越穩定可代表此為模型較容易預測的unlabel data,不須再透過額外的人工定義threshold來篩選可信賴的pseudo label,且使用image-level的資訊取代pixel-level過濾掉不可信的pseudo label,可讓模型更完整取得完整的label資訊。
存取teacher訓練時的k個階段,並將前面k-1的每次預測結果與第k次做mIOU計算,取得unlabel data裡每張圖穩定度的分數
整個流程為:
利用label data預先訓練teacher模型並存取訓練過程中k個模型紀錄點
對unlabel data的每張圖分別依照上述方式計算穩定度分數
選擇前R個最高分數作為較容易預測的unlabel data並放入teacher模型取得對應的pseudo label,且將剩餘的unlabel data歸類為
利用剛分出的與原本的label data聯集後對student模型做ST re-training
用再訓練完的student生成的pseudo-label
初始化student模型
將所有資料聯集後對student模型做ST re-training