Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ]

论文信息

论文标题:Knowledge distillation for semi-supervised domain adaptation
论文作者:Mauricio Orbes-Arteaga, Jorge Cardoso
论文来源:2019 aRxiv
论文地址:download
论文代码:download
视屏讲解:click

1 介绍 

  动机:在注释数据中缺乏足够的数据变化的情况下,深度神经网络(DNNs)在训练过程中倾向于过拟合。因此,它们在来自看不见来源的数据上的性能明显低于来自相同来源的训练数据的数据上的性能。半监督域自适应方法可以通过将网络调整到新的目标域来缓解这些问题,而不需要从这些域的注释数据。对抗性领域自适应(ADA)方法是一种流行的选择,旨在训练网络,使生成的特征是领域不可知的。

2 方法

  Step1:源域预训练教师模型

    minfFs1NxiXsl(yi,σ(fs(xi)))[σ(z)]k=e[z]kl=1Ke[z]l

  Step2:知识蒸馏

    XU={(xi,yi)xiXs,yi=fs(xi),1iN}{(xi,yi)xiXt,yi=fs(xi),1iM}

    argminfFt1(N+M)xiXUl(σ(T1fs(xi)),σ(ft(xi)))

3 实验

  略

posted @   别关注我了,私信我吧  阅读(71)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 通过 API 将Deepseek响应流式内容输出到前端
· 因为Apifox不支持离线,我果断选择了Apipost!
历史上的今天:
2022-08-21 论文解读(PairNorm)《PairNorm: Tackling Oversmoothing in GNNs》
2020-08-21 排序算法
Live2D
点击右上角即可分享
微信分享提示