Note:[ wechat:Y466551 | 可加勿骚扰,付费咨询 ]

论文信息

论文标题:Pseudo-Label : The Simple and Efficient Semi-Supervised Learning Method for Deep Neural Networks
论文作者:Dong-Hyun Lee
论文来源:2013——ICML
论文地址:download 
论文代码:download
视屏讲解:click

0-前言

  本文提出了一种简单而有效的深度神经网络半监督学习方法。基本上,所提出的网络是以监督的方式同时训练标记和未标记数据。对于未标记的数据,为其打上伪标签。没有任何无监督的预训练方法,这种简单的方法显示了最先进的性能。

1-介绍

  动机:充分利用无标签数据增强模型鲁棒性;

2-方法

  Pseudo-Label 模型作为一个简单、有效的半监督学习方法早在 2013年就被提出,其核心思想包括两步:

    • 第一步:运用训练好的模型给予无标签数据一个伪标签,可以用概率最高的类别作为无标签数据的伪标签;
    • 第二步:运用 entropy regularization 思想,将无监督数据转为目标函数(Loss)的正则项。实际中,就是将拥有伪标签的无标签数据视为有标签的数据,然后用交叉熵来评估误差大小;

  目标函数:

    L=1nm=1ni=1CL(yim,fim)+α(t)1nm=1ni=1CL(yim,fim)

  其中,左边第一项为交叉熵,用来评估有标签数据的误差。第二项即为 entropy regularization 项,用来从无标签的数据中获取训练信号;

  为了平衡有标签数据和无标签数据的信号强度,引入时变参数 α(t),随着训练时间的增加,α(t) 将会从零开始线性增长至某个饱和值。背后的核心想法也很直观,早期模型预测效果不佳,因此 entropy regularization 产生信号的误差也较大,因而 α(t) 应该从零开始,由小逐渐增大;

     α(t)={0t<T1tT1T2T1αfT1t<T2αfT2t

   其中,αf=3T1=100T2=600

3 为什么伪标签有效

低密度分离

  聚类假设指出决策边界应位于低密度区域以提高泛化性能。

 熵正则化

  该方案通过最小化未标记数据的类概率的条件熵来支持类之间的低密度分离,而无需对密度进行任何建模。

    H(yx)=1nm=1ni=1CP(yim=1xm)logP(yim=1xm)

  熵是类重叠的量度,随着类别重叠的减少,决策边界处的数据点密度会降低。

使用伪标签作为熵正则化进行训练

  可视化结果:
  

  在使用神经网络进行分类时, yu=fθ(xu) , 其中 yu 是 one-hot 编码。现在我们并不限制其必须是某个类 别, 而是将其看做1个分布, 我们希望这个分布越集中越好("非黑即白"), 因为分布越集中时它的含义就是样本 xu 属于某类别的概率很大属于其它类别的概率很小。
我们可以使用 Entropy 评估分布 yμ 的集中程度 E(yμ)=m=15ymμln(ymμ) , 假设是5分类, 其值越小则表示分布 yμ 越集中。

  如下图左侧所示, 上面两个的 E为 0 , 所以  y  的分布很集中; 最后一个  E=1/5, 比上面两个大, 我们 只管也可以看出, 他的分布不那么集中。

    

 

参考

python 信息熵(含联合熵、条件熵)

posted @   别关注我了,私信我吧  阅读(251)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
历史上的今天:
2022-04-06 论文解读(GRCCA)《 Graph Representation Learning via Contrasting Cluster Assignments》
2022-04-06 论文解读(Survey)《Self-supervised Learning on Graphs: Contrastive, Generative,or Predictive》第一部分:问题阐述
2022-04-06 论文解读(CSSL)《Contrastive Self-supervised Learning for Graph Classification》
2020-04-06 C++格式化输出
2020-04-06 寻找段落
Live2D
点击右上角即可分享
微信分享提示