python机器学习-chapter2_6

•logistic回归中有一个参数是penalty,penalty用来控制logistic回归的正则化,默认penalty = 'l2',也可等于l1

当使用penalty = 'l1'时就是使用了L1正则化,使用L1正则化的logistic回归是一个解释性更强的模型,只使用了少数几个特征。

 

•one-vs.-rest “一对其余” 多分类线性模型

♠训练集中所有属于类别0的点都在 与类别0对应的直线 上方,说明这些点 位于 这个二类分类器 属于“类别0”的那一侧。

属于类别0的点 位于 类别1对应的直线的左侧,这说明类别0的点被 类别1对应的直线划为“其余”。

属于类别0的点 位于 类别2对应的直线的上方,这说明类别0的点被 类别2对应的直线划为“其余”。

因此,这一区域的所有点被 最终分类器 划为类别0(类别0对应的置信方程结果 >0,其余两个方程的结果 <0)

♠对于图像中央的三角区域,三个二类分类器都将其划为其余,三角区域内的点如何归属?

三角区域内的点被归属为分类方程结果最大的那个类别,即最靠近的那条线的类别。

 

•线性模型总结

♠线性模型中的主要参数是alpha和C:

在线性回归(OLS)、岭回归、lasso回归中为alpha,

在logistic回归、linear SVM中为C,

alpha越大或C越小,说明约束力越大,模型越简单,泛化能力越好。

♠特征数量大于样本数量时,线性模型的表现通常很好

♠回归:线性回归、岭回归、lasso回归

线性回归:不可控制模型的复杂度

岭回归:可控制模型的复杂度,L2正则化,

lasso回归:L1正则化(适用于特征很多但只有几个特征的情况 和 需要建立容易理解的模型的情况)

分类:logistic回归、linearSVM

logistic回归:LI正则化、L2正则化(有penalty参数控制),可用于二分类和多分类

linearSVM:L2正则化,用于二分类

posted @ 2020-02-05 18:14  啵仔  阅读(185)  评论(0编辑  收藏  举报