论文解读(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》
论文信息
论文标题:Cross-domain Contrastive Learning for Unsupervised Domain Adaptation
论文作者:Rui Wang, Zuxuan Wu, Zejia Weng, Jingjing Chen, Guo-Jun Qi, Yu-Gang Jiang
论文来源:aRxiv 2022
论文地址:download
论文代码:download
1 Introduction
无监督域自适应(UDA)的目的是将从一个完全标记的源域学习到的知识转移到一个不同的未标记的目标域。 大多数现有的 UDA 方法通过最小化域间的特征距离来学习域不变的特征表示。
UDA 研究方向:
-
- discrepancy-based methods:最小化不同域之间的差异;
- adversarial-based methods:为域鉴别器设计一个对抗性优化目标,并通过对抗性学习获得域不变表示;
- domain-adaptive dictionary learning;
- multi-modality representation learning;
- feature disentanglement;
我们的目标是通过对比自监督学习来调整源域和目标域之间的特征分布。
2 方法
NT-Xent loss
考虑目标域样本$boldsymbol{x}_{t}^{i}$ 的 $ell_{2}text{-normalized}$ 特征 $boldsymbol{z}_{t}^{i}$ 作为锚,它的正样本为同一类的源域样本,其特征表示为 $boldsymbol{z}_{s}^{p}$,那么跨域对比损失:
$mathcal{L}_{C D C}^{t, i}=-frac{1}{left|P_{s}left(hat{y}_{t}^{i}right)right|} sumlimits _{p in P_{s}left(hat{y}_{t}^{i}right)} log frac{exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{z}_{s}^{p} / tauright)}{sumlimits_{j in I_{s}} exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{z}_{s}^{j} / tauright)} quadquadquad(2)$
其中,$I_{S}$ 代表一个 mini-batch 中的源域样本集合,$P_{s}left(hat{y}_{t}^{i}right)=left{k mid y_{s}^{k}=hat{y}_{t}^{i}right}$ 代表源域和目标域样本 $x_{t}^{i}$ 有相同标签;
$mathcal{L}_{C D C}=sumlimits _{i=1}^{N_{s}} mathcal{L}_{C D C}^{s, i}+sumlimits_{i=1}^{N_{t}} mathcal{L}_{C D C}^{t, i} quadquadquad(3)$
$underset{boldsymbol{theta}}{operatorname{minimize}} quad mathcal{L}_{C E}left(boldsymbol{theta} ; D_{s}right)+lambda mathcal{L}_{C D C}left(boldsymbol{theta} ; D_{s}, D_{t}right) quadquadquad(4)$
在训练过程中,没有来自目标域的真实标签,因此利用 k-means 聚类产生伪标签。由于 K-means 对初始化很敏感,因此使用随机生成的集群不能保证与预定义类别相关的相关语义。为缓解这个问题,将簇的数量设置为类 $M$ 的数量,并使用来自源域的类原型作为初始簇。
$O_{t}^{m} leftarrow O_{s}^{m}=mathbb{E}_{i sim D_{s};, ; y_{s}^{i}=m} z_{s}^{i} quadquadquad(5)$
Note:预训练模型 $f_{s}$ 是上文提到的通过交叉熵优化得到的。
本文通过用训练模型 $𝑓_𝑠$ 的分类器权值替换源样本来解决这个问题。直觉是,预先训练模型的分类器层的权向量可以看作是在源域上学习到的每个类的原型特征。特别地,我们首先消除了全连通层的 bias ,并对分类器进行了归一化处理。假设 $boldsymbol{w}_{s}^{m}in boldsymbol{W}_{s}=left[boldsymbol{w}_{s}^{1}, ldots, boldsymbol{w}_{s}^{M}right]$ 代表从源域学到的 $M$ 分类器的权重向量,由于权值是规范化的,所以我们将它们用作类原型。当适应目标域时,冻结分类器层的参数,以保持源原型,并且只训练特征编码器。通过用源原型替换源样本,在源数据自由设置下的跨域对比损失可以写为:
$mathcal{L}_{S D F-C D C}^{t, i}=-sumlimits_{m=1}^{M} mathbf{1}_{hat{y}_{t}^{i}=m} log frac{exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{w}_{s}^{m} / tauright)}{sumlimits _{j=1}^{M} exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{w}_{S}^{j} / tauright)} quadquadquad(6)$
$operatorname{minimize} sumlimits _{i=1}^{N_{t}} mathcal{L}_{S D F-C D C}^{t, i} quadquadquad(8)$


文章来源于互联网:论文解读(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》