特征选择之数据降维
一.特征选择之数据降维
1.降维:
维度:特征的数量(不是数据的维度),减少特征数据的字段
方法一:
特征选择:选出部分特征
原因:特征数量冗长,太消耗内存
实例:
#!/usr/bin/env python # -*- coding: utf-8 -*- #author tom from sklearn.feature_selection import VarianceThreshold def vt(x): """ 特征选择--删除低方差特征,就是那一列的数据全部近似等于平均值 :param x: :return: """ #threshold默认为0.0 vt=VarianceThreshold(threshold=0.0) data=vt.fit_transform(x) print(data) if __name__ == '__main__': l=[[0,1,2,3], [0,4,5,3], [0,6,4,3] ] vt(l)
结果:
看一下降维的另外一种方法:
方法二:
主成分分析:pca:分析,简化数据集的工具
pca:
目的:数据降维并且尽量不改变源数据的主要特征
实例:
#!/usr/bin/env python # -*- coding: utf-8 -*- #author tom from sklearn.decomposition import PCA def pca(x): """ 主成分分析进行特征降维 :param x: :return: """ #保留元数据的90% p=PCA(n_components=0.9) data=p.fit_transform(x) print(data) if __name__ == '__main__': l = [[0, 1, 2, 3], [0, 4, 5, 3], [0, 6, 4, 3] ] pca(l)
结果:
、
2.数据降维实例