Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]

论文信息

论文标题:ECACL: A Holistic Framework for Semi-Supervised Domain Adaptation
论文作者:Kai Li, Chang Liu, Handong Zhao, Yulun Zhang, Y. Fu
论文来源:2021 ICCV
论文地址:download 
论文代码:download
视屏讲解:click

1 介绍 

  出发点:半监督领域自适应(SSDA)是一个实用但尚未被研究的研究课题;

2 方法

2.1 模型框架

  

2.2 类对齐

基于原型损失的方法

  使用目标域带标记数据计算原型:

    ck=1|Tk|(ti,yi)Tkf(ti)(1)

  使用上述得到的目标原型,计算源域样本原型分布:

    p(yis=ysi)=exp(f(si)cy2)k=1Cexp(f(si)ck2)(2)

  然后,可计算出所有源样本的原型损失:

    Lpa=1CNs(si,yis)SyYyislog[p(yis=ysi)](3)

基于三重损失的方法

  目的:使同一类的跨域样本应该比来自不同类[16]的样本具有更高的相似性。

  具体来说,对于目标域带标记样本 (ti,yit)Tl,从 S 中发现属于 yt 类,但最不相似的源样本 (sp,yp)。同时,也从 S 中找到不属于 yt 类,但最相似的样本 (sn,yn)。三联体 (ti,sn,sp),将以下三联体损失优化为:

    Lta=1Nt(ti,yt)Tl[f(ti)f(sp)22f(ti)f(sn)22+m]+(4)

2.3 域对齐与数据增强

增强的类对齐

  最近的研究表明,创建高度扰动图像的强增强为监督学习[6,7]带来了显著的性能提高。因此,Eq.1-4 均基于随机强数据增强样本计算得出。

一致性对齐

  对于每个未标记的目标样本 uiTu,应用弱增强 ψ 和强增强 Φ:

    uiw=ψ(ui)uis=Φ(ui)(5)

  优化以下目标函数:

    Lcona =uiU[1(max(pw)σ)H(p~w,ps)](6)

  其中,p~w=argmax(pw)H(.,.) 代表着交叉熵;

2.4 训练目标

  总体学习目标是 UDA损失、增强的类对齐损失和一致性对齐损失的加权组合:

    L=Luda +λ1Lcata +λ2Lcona ,Lcata ={Lpa,Lta }

  其中,Lcata=Lpa 或者 Lcata =Lta

  算法

    

3 实验

分类

  

 

posted @   别关注我了,私信我吧  阅读(51)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 【杂谈】分布式事务——高大上的无用知识?
历史上的今天:
2022-08-16 论文解读(SEP)《Structural Entropy Guided Graph Hierarchical Pooling》
2020-08-16 剑指 Offer 30. 包含min函数的栈
Live2D
点击右上角即可分享
微信分享提示