学习理论

1 基本概念

  输入空间、特征空间与输出空间

  在监督学习中,将输入与输出所有可能取值的集合分别称为输入空间与输出空间,可以是有限元素空间也可以是整个欧式空间,输入输出空间可以是同一空间也可以是不同空间,通常输出空间远远小于输出空间

  每个具体的实例通常由特征向量表示,特征向量的空间成为特征空间,有时假设输入空间与特征空间为相同空间,对他们不区分,有时假设输入空间和特征空间为不同空间,将实例从输入空间映射的特征空间

  模型实际都是定义在特征空间上的

  联合概率分布

  监督学习假设输入与输出随机变量X和Y遵循联合概率分布P(X,Y). 在学习过程中,假设这个联合概率分布存在,是监督学习关于数据的基本假设

  假设空间

  监督学习的目的在于学习一个由输入到输出的映射,这一映射由模型表示。模型属于输入空间到输出空间的映射的集合,这个集合就是假设空间

2 统计学习三要素

  2.1 模型

  模型的假设空间包含所有可能的条件概率分布或决策函数

  假设空间用F表示  非概率模型

  F = {f| Y = fθ(x),θ属于Rn} , 参数向量θ取值n维欧式空间,称为参数空间

  假设空间也可以定义为   概率模型

  F = {P| Pθ(Y|X),θ属于Rn}

  2.2 策略

  怎样选择最优模型?

    2.21 损失函数

    预测值f(X)可能与真实值不一致,用损失函数(loss function)或代价函数(cost function)度量预测错误的程度,损失函数是f(X)和Y的非负实值函数,记为L(Y,f(x)).

    常用的损失函数有  

    (1) 0-1损失函数(0-1 loss function):

      L(Y,f(X))={1,0,Yf(X)Y=f(X)

    (2) 平方损失函数(quadratic loss function)

      L(Y,f(X))=(Yf(X))2

    (3) 绝对损失函数(absolute loss function)

      L(Y,f(X))=|Yf(X)|

    (4) 对数损失函数(logarithmic loss function) 或对数似然损失函数(log-likelihood loss function)

      L(Y,P(Y|X))=logP(Y|X)

    损失函数越小,模型就越好。

    (5)指数损失函数 (Adaboost)

    

    (6) Hinge损失函数(SVM)

    

    2.2.2风险函数

   

    2.2.3 经验风险最小化

   

    2.2.4 结构风险最小化

    

  2.3 算法

     通过上面的讲解,统计学习问题归结为了最优化问题,见机器学习常见的最优化算法

3 模型评估与模型选择

  3.1 训练误差与测试误差

  

  3.2 过拟合与模型选择

 

  3.3 正则化与交叉验证(模型选择方法)

4 泛化能力

  泛化误差

  泛化误差上界

5 生成模型与判别模型

  生成方法由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型

  

  典型的生成模型有 

     Gaussian mixture model and othertypes of mixture model

             HiddenMarkov model

             NaiveBayes

             AODE

             LatentDirichlet allocation

             RestrictedBoltzmann Machine

  判别方法由数据直接学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型,判别方法关心的是对给定的输入X,应该预测什么样的输出Y.典型的判别模型包括

    k近邻、感知机、决策树、逻辑斯蒂回归、最大熵模型、支持向量机、提升方法、条件随机场等

     Logisticregression

             Lineardiscriminant analysis

             Supportvector machines

             Boosting

             Conditionalrandom fields

             Linearregression

             Neuralnetworks

 

 

posted on 2016-08-03 21:46  瞧那头猪  阅读(203)  评论(0编辑  收藏  举报

导航