Supervised Learning
首先给出一些基本定义,
The goal of supervised learning can be described as follows: given a training set, to learn a function
基于目标值的形式不同,Supervised Learning 主要分成两大类.
Regression Problem(回归问题): 输出变量是连续值.
Classification Problem(分类问题): 输出变量是离散值.
线性回归
我们先考虑一个简单的线性回归问题,我们假设输入变量
现在,给出一组有
这个函数与最小均方误差函数很像,接下来,我们讨论如何求解参数
LMS Algorithm
为了求得最优的参数
表示成如下:
其中,
进而,我们可以得到只有一对样本时的更新准则:
这就是有名的LMS更新原则,也叫Widrow-Hoff学习准则,参数
batch model的更新原则是每一次更新要遍历所有的样本,如下所示:
而stochastic model每遇到一个样本就会进行一次更新,如下所示:
从上面两种方式可以看出,batch model 每做一次更新要遍历所有的样本,这是非常耗时的,特别是在样本数非常多的时候,而stochastic model 是即时更新,每遇到一个样本就更新一次,通常情况下,stochastic model会下降地比batch model 快,不过stochastic model的一个缺陷是有可能无法收敛到全局最小值,而是在最小值附近来回扰动,这大概也是称之为stochastic model的原因,最终收敛的值带有一定的随机性,然而虽然只是收敛到全局最小值附近,很多时候这种近似已经非常靠近全局最小值,而且stochastic model的效率要更高,所以stochastic model一般会作为优先考虑的方法。
更通常的一种做法是结合两种方式,将整个训练集分割成很多个小的batch,然后利用stochastic model进行更新,每遇到一个小的batch,进行一次更新,这样做利用了stochastic model的高效,也在一定程度上减轻了在全局最小值附近的扰动。
参考文献
Andrew Ng, “Machine Learning”, Stanford University.