微信扫一扫打赏支持

201116西瓜书机器学习系列---11、特征选择

201116西瓜书机器学习系列---11、特征选择

一、总结

一句话总结:

特征选择的【步骤】,特征选择的【方法】

 

 

1、稀疏学习?

 

 

2、信息增益如何做特征选择?

【信息增益越大,特征越重要】

 

 

3、过滤式特征选择:代表算法Relief(Relevant Feature)?

Relief原理:【能区分开目标的特征挑出来,区分不开目标的特征给它去掉】
$$\delta ^ { j } = \sum _ { i = 1 } ^ { M } - \operatorname { diff } ( x _ { i } ^ { j } , x _ { i , n h } ^ { j } ) ^ { 2 } + \operatorname { diff } ( x _ { i } ^ { j } , x _ { i , n i n } ^ { j } ) ^ { 2 }$$

 

 

4、L1正则化?

L1正则化使得W变的【稀疏】,L2正则化【使得W变的比较小】

 

 

 

5、为什么L1正则化可以让特征变少(为什么L1正则化使得W变的稀疏)?

$$\operatorname { obj } ( w ) = \min \sum _ { i = 1 } ^ { m } ( y _ { i } - w ^ { T } x _ { i } ) ^ { 2 } + \lambda \| w \| _ { 1 }$$
【L1正则化交点常在坐标轴上】,这样【某个特征值就会为0】,表示这个特征没影响,而【L2正则化的交点常不在坐标轴上】,看图非常好理解

 

 

6、特征工程?

做一个模型,【70%-90%时间】会花在特征工程上面;【最耗时、最有创造力】的部分;【不同模型】对特征工程【要求不一样】;【cnn、dnn对特征工程要求较低】

 

 

二、特征选择

博客对应课程的视频位置:

 

 

 

 
posted @ 2020-11-18 20:25  范仁义  阅读(193)  评论(0编辑  收藏  举报