自监督-对比学习资料

一文梳理无监督对比学习(MoCo/SimCLR/SwAV/BYOL/SimSiam)(微信推文)

自监督学习(Self-Supervised Learning) 2018-2020年发展综述 (微信推文)

对比学习(Contrastive Learning)综述(知乎)

 

综述文献:

2020TPAMI-Self-supervised Visual Feature Learning with Deep Neural Networks- A Survey

2020-A Survey on Semi-, Self- and Unsupervised Learning for Image Classification

 

几个经典的自监督学习模型:

SimLCR

Chen Ting et al.  ICML2020.

结论:

数据增强对表征学习的影响很大,有难度的增强的方法可以使表征学得更好;

batch size越大(即负样本越多),表征学习效果越好;

nonlinear projection head有助于提升表征学习质量。

MoCo

Kaiming He et al. CVPR2020.

提出momentum encoder,把batch size和queue size解耦,避免大的batch size,也不需要memory bank去存储所有编码好的样本了。

BYOL (Bootstrap Your Own Latent

前人的工作是用同一张图像的一个view的representation去predict另一个view的representation,但这样做容易出现退化解(collapsed solutions, e.g., outputting the same vector for all images),因为很多时候,representation具有view invariance。为了避免退化解,前人的做法是加上negative pair。但是这样就需要较多的negative examples,使得某些negative examples比较接近positive example,to make the discrimination task challenging.

这篇论文的目的是,能不能去除negative pair,同时避免退化解。

作者发现如果把其中一个encoder变成随机初始化的固定下来(stop gradient),让另一个encoder的表征和固定住权重的encoder的表征相互靠近,效果就能达到18.8%的准确率。

然后作者把 “固定住权重” 改为 “权重以momentum的方式更新”。

SwAV

motivation是去除负样本。

对各类样本进行聚类,得到聚类中心,根据每个样本与所有聚类中心的距离,得到样本的新的表示,用这种表示去做对比。

SimSiam

This method can be thought of as:

  • “BYOL without the momentum encoder”

  • “SimCLR without negative pairs”

  • “SwAV without online clustering”

 

posted @ 2021-05-25 21:20  Picassooo  阅读(510)  评论(0编辑  收藏  举报