论文解读(MCD)《Maximum Classifier Discrepancy for Unsupervised Domain Adaptation》

发布时间 2023-08-05 09:10:19作者: Wechat~Y466551
Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]

论文信息

论文标题:Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
论文作者:Kuniaki Saito, Kohei Watanabe, Y. Ushiku, T. Harada
论文来源:2018 CVPR
论文地址:download
论文代码:download
视屏讲解:click

1 介绍 

  出发点:以往方法训练域分类器网络(即鉴别器)来区分特征作为源或目标,并训练特征生成器网络来模拟鉴别器。然而,域分类器只试图将特征作为源或目标来区分,因此不考虑类之间特定于任务的决策边界。
  以往方法和本文方法的对比:
    
  注意:之前方法应该是指基于域差异减小的方法;

  贡献:

    • 提出了一种新的域适应训练方法,通过考虑特定任务的决策边界来对齐目标域的分布。不使用域鉴别器来区分特征作为源或目标域;
    • 通过一个玩具问题来确认我们的方法的行为;
    • 在各种任务上广泛地评估我们的方法:数字分类,对象分类,和语义分割;

2 方法

2.1 模型框架

  

2.2 训练步骤

  Step A,同时训练分类器和生成器来正确地对源样本进行分类。为了使分类器和生成器获得特定于任务的鉴别特征,训练网络来最小化交叉熵。其目标如下:

    $\begin{array}{l}\underset{G, F_{1}, F_{2}}{\text{min}}  L\left(X_{s}, Y_{s}\right) . \\L\left(X_{s}, Y_{s}\right)=-\mathbb{E}_{\left(\mathbf{x}_{s}, y_{s}\right) \sim\left(X_{s}, Y_{s}\right)} \sum_{k=1}^{K} \mathbb{1}_{\left[k=y_{s}\right]} \log p\left(y \mid \mathbf{x}_{s}\right)\end{array}$

  Step B,固定特征生成器 $G$,训练分类器($F_1$,$F_2$)作为鉴别器。通过训练分类器来增加差异,可以检测到被源域的 support 所排除的目标样本。其目标如下:

    $\begin{array}{l}\underset{F_{1}, F_{2}}{\text{min}} \;  L\left(X_{s}, Y_{s}\right)-L_{a d v}\left(X_{t}\right) . \\L_{a d v}\left(X_{t}\right)=\mathbb{E}_{\mathbf{x}_{\mathbf{t}} \sim X_{t}}\left[d\left(p_{1}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right), p_{2}\left(\mathbf{y} \mid \mathbf{x}_{\mathbf{t}}\right)\right)\right]\end{array}$

  Step C,固定分类器 $F_1$,$F_2$ ,训练生成器 $G$ 最小化固定分类器的差异。其目标如下:

    $\underset{G}{\text{min}} \; L_{a d v}\left(X_{t}\right)$

  图示如下:

  

3 实验结果

分类结果