futurehau

导航

 

之前我们讨论了VC Dimension,最终得到结论,如果我们的hypetheset的VC Dimension是有限的,并且有足够的资料,演算法能够找到一个hypethesis,它的Ein很低的话,那么我们就大概学到了东西。

看看之前的learning flow:

我们有一个target function,能够产生一堆的sample,x 由某一个分布产生,未来的测试也有同一个分布产生。

演算法想办法从资料和假设集里找到一个好的假设。好的假设集是VC Dimension是有限的,好的假设是Ein是低的。

那么,我们现在讨论假设数据是有噪声的,之前的推导还是有效的吗?

1. Noise and Probabilistic Target

之前的讨论没有考虑噪声,但是无论是X还是Y,都是有可能带来噪声的。

那么之前的目标函数就变为目标分布:

目标部分告诉我们最好的分布是什么,杂讯是多少。

P(x)代表哪些X比较重要.

那么,现在的learning flow变为:

2. Error Measure

之前我们一直在寻找g和f接近,现在我们进行一个量化来表示g和f一不一样。

之前的g有三个特性:

(classification错误也叫做0/1 Error)

两种错误衡量方式:

错误大小和P(y|X)有关,和衡量错误的方法有关:

那么,有了错误衡量的概念之后,我们的学习曲线就需要告诉演算法使用怎样的错误衡量方式。

3. Choice of Error Measure

其实就是说的准确率和召回率。

假设做一个指纹辨识系统,

那么超市打折就希望较少的false reject,所以就可以把false reject的惩罚权重调大一些。

CIA进入许可就希望比较小的false accept,所以就可以把false accept的惩罚权重调大一些。

所以,不同的应用需要不同的错误衡量方式。在设计演算法的时候就需要考虑到错误衡量方式。

但真正的量化错误衡量方式往往不容易,所以需要寻找替代:

那么,有了替代Err的概念之后,演算法可以转变为:

4. Weighted Classification

不同的错误有不同的权重。

改变了Ein之后,之前的PLA和Pocket相应有什么影响呢?

Pocket可以让Ein01尽可能的小,但是新的衡量方式也有保证么?

这样考虑,复制权重次数即可对应。

实际上并不需要真正的去复制,而是下述的虚拟复制。

 

posted on 2017-01-08 21:18  futurehau  阅读(198)  评论(0编辑  收藏  举报