论文解读(MCD)《Maximum Classifier Discrepancy for Unsupervised Domain Adaptation》

Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]

论文信息

论文标题:Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
论文作者:Kuniaki Saito, Kohei Watanabe, Y. Ushiku, T. Harada
论文来源:2018 CVPR
论文地址:download
论文代码:download
视屏讲解:click

1 介绍 

  出发点:以往方法训练域鉴别器区分源域和目标域,然域分类器不考虑类之间特定于任务的决策边界;
  以往方法和本文方法的对比:
    
  注意:之前方法应该是指基于域差异减小的方法;

  贡献

    • 提出一种新的 DA 训练方法,通过考虑任务决策边界来对齐目标域分布,并不使用域鉴别器来区分特征作为源或目标域;
    • 实验证明,方法有效性;

2 方法

2.1 模型框架

  

2.2 训练步骤

  Step A,同时训练分类器和生成器对源样本进行分类,目标如下:

    $\begin{array}{l}\underset{G, F_{1}, F_{2}}{\text{min}}  L\left(X_{s}, Y_{s}\right) . \\L\left(X_{s}, Y_{s}\right)=-\mathbb{E}_{\left(\mathbf{x}_{s}, y_{s}\right) \sim\left(X_{s}, Y_{s}\right)} \sum_{k=1}^{K} \mathbb{1}_{\left[k=y_{s}\right]} \log p\left(y \mid \mathbf{x}_{s}\right)\end{array}$

  Step B,固定特征生成器 $G$,训练分类器($F_1$,$F_2$)作为鉴别器。通过训练分类器来增加差异,其目标如下:

    $\begin{array}{l}\underset{F_{1}, F_{2}}{\text{min}} \;  L\left(X_{s}, Y_{s}\right)-L_{a d v}\left(X_{t}\right) . \\L_{a d v}\left(X_{t}\right)=\mathbb{E}_{\mathbf{x}_{\mathbf{t}} \sim X_{t}}\left[d\left(p_{1}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right), p_{2}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right)\right)\right]\end{array}$

  其中:

    $d\left(p_{1}, p_{2}\right)=\frac{1}{K} \sum_{k=1}^{K}\left|p_{1_{k}}-p_{2 k}\right|$

  Step C,固定分类器 $F_1$,$F_2$ ,训练生成器 $G$ 最小化固定分类器的差异。其目标如下:

    $\underset{G}{\text{min}} \; L_{a d v}\left(X_{t}\right)$

  图示如下:

  

3 实验结果

分类结果

  

posted @ 2023-08-16 11:46  图神经网络  阅读(167)  评论(1编辑  收藏  举报
Live2D