introduction
這篇paper認為contrastive loss會隱含ethical risks也就是在學習的過程中會學習到sensitive attribute information, 像是種族、性別、年齡等就是常見的sensitive attribute, 這些attribute會導致model藉由它們來predict labels, 而不是用正確的target attribute來判斷, 進而產生bias
再來就是demographic groups之間的data imbalance, 也會在training的過程中導致model產生bias
所以作者提出Fair Supervised Contrastive Loss(FSCL)
這個方法可以對於representation當中的sensitive attribute資訊做penalize, 以達到提升fairness的目標
再來就是作者提出group-wise normalization, 藉由對每個demographic groups做normalization可以解決剛剛提到的data imbalance的問題
related work