论文解读(MCD)《Maximum Classifier Discrepancy for Unsupervised Domain Adaptation》
论文信息
论文标题:Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
论文作者:Kuniaki Saito, Kohei Watanabe, Y. Ushiku, T. Harada
论文来源:2018 CVPR
论文地址:download
论文代码:download
视屏讲解:click
1 介绍
出发点:以往方法训练域鉴别器区分源域和目标域,然域分类器不考虑类之间特定于任务的决策边界;
以往方法和本文方法的对比:
注意:之前方法应该是指基于域差异减小的方法;
贡献:
-
- 提出一种新的 DA 训练方法,通过考虑任务决策边界来对齐目标域分布,并不使用域鉴别器来区分特征作为源或目标域;
- 实验证明,方法有效性;
2 方法
2.1 模型框架
2.2 训练步骤
Step A,同时训练分类器和生成器对源样本进行分类,目标如下:
$\begin{array}{l}\underset{G, F_{1}, F_{2}}{\text{min}} L\left(X_{s}, Y_{s}\right) . \\L\left(X_{s}, Y_{s}\right)=-\mathbb{E}_{\left(\mathbf{x}_{s}, y_{s}\right) \sim\left(X_{s}, Y_{s}\right)} \sum_{k=1}^{K} \mathbb{1}_{\left[k=y_{s}\right]} \log p\left(y \mid \mathbf{x}_{s}\right)\end{array}$
Step B,固定特征生成器 $G$,训练分类器($F_1$,$F_2$)作为鉴别器。通过训练分类器来增加差异,其目标如下:
$\begin{array}{l}\underset{F_{1}, F_{2}}{\text{min}} \; L\left(X_{s}, Y_{s}\right)-L_{a d v}\left(X_{t}\right) . \\L_{a d v}\left(X_{t}\right)=\mathbb{E}_{\mathbf{x}_{\mathbf{t}} \sim X_{t}}\left[d\left(p_{1}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right), p_{2}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right)\right)\right]\end{array}$
其中:
$d\left(p_{1}, p_{2}\right)=\frac{1}{K} \sum_{k=1}^{K}\left|p_{1_{k}}-p_{2 k}\right|$
$\underset{G}{\text{min}} \; L_{a d v}\left(X_{t}\right)$
图示如下:
3 实验结果
分类结果
因上求缘,果上努力~~~~ 作者:图神经网络,转载请注明原文链接:https://www.cnblogs.com/BlairGrowing/p/17607068.html