一些概念

因为种种原因,接触了很多视觉相关的任务,想稍作记录,也算没有浪费时间。

直推学习(transductive learning)和 归纳学习(inductive learning)

实际上我们平时所说的learning一般指的是inductive learning。
考虑普通学习问题,训练集为\(D=\{X_{tr}, y_{tr}\}\),测试(未标记)\(X_{te}\),众所周知,\(X_{te}\)不会出现在训练集中。这种情况就是inductive learning。
半监督学习的情况,训练集为\(D=\{X_{tr},y_{tr},X_{un}\}\),测试\(X_{te}\),此时,\(X_{un}\)\(X_{te}\)都是未标记的,但我们测试的\(X_{te}\)在训练时没有见过,这种情况是 inductive semi-supervised learning。
如果我们不管\(X_{te}\),而是想知道对\(X_{un}\)的效果怎么样时,由于此时在训练的时候我们已经见过\(X_{un}\)(利用了\(X_{un}\)的特征信息),这时就叫transductive semi-supervised learning。

简单来说,transductive和inductive的区别在于我们想要预测的样本,是不是我们在训练的时候已经见(用)过的。通常transductive比inductive的效果要好,因为inductive需要从训练generalize到测试。

小样本分类(Few-shot Classification)

任务介绍

  • D_base
  • D_novel
    • Support set
    • Query set

数据集

  • miniImageNet. 100 classes(64/16/20), 600 images, 84x84
  • tieredImageNet. 34 high-level categories(20/6/8), 608 classes(391/97/160)
  • CUB. 200 classes(100/50/50), 11788 images, 84x84
  • CIFAR-FS. 100 classes(64/16/20), 100x600 images, 32x32

方法

推荐仓库:Awesome Papers Few-shot

参考

如何理解 inductive learning 与 transductive learning?

posted @ 2020-08-19 23:03  tofengz  阅读(290)  评论(0编辑  收藏  举报