sklearn svm基本使用
SVM基本使用
SVM在解决分类问题具有良好的效果,出名的软件包有libsvm(支持多种核函数),liblinear。此外python机器学习库scikit-learn也有svm相关算法,sklearn.svm.SVC和
sklearn.svm.LinearSVC 分别由libsvm和liblinear发展而来。
推荐使用SVM的步骤为:
- 将原始数据转化为SVM算法软件或包所能识别的数据格式;
- 将数据标准化;(防止样本中不同特征数值大小相差较大影响分类器性能)
- 不知使用什么核函数,考虑使用RBF;
- 利用交叉验证网格搜索寻找最优参数(C, γ);(交叉验证防止过拟合,网格搜索在指定范围内寻找最优参数)
- 使用最优参数来训练模型;
- 测试。
下面利用scikit-learn说明上述步骤:
1 import numpy as np 2 from sklearn.svm import SVC 3 from sklearn.preprocessing import StandardScaler 4 from sklearn.model_selection import GridSearchCV, train_test_split 5 6 def load_data(filename) 7 ''' 8 假设这是鸢尾花数据,csv数据格式为: 9 0,5.1,3.5,1.4,0.2 10 0,5.5,3.6,1.3,0.5 11 1,2.5,3.4,1.0,0.5 12 1,2.8,3.2,1.1,0.2 13 每一行数据第一个数字(0,1...)是标签,也即数据的类别。 14 ''' 15 data = np.genfromtxt(filename, delimiter=',') 16 x = data[:, 1:] # 数据特征 17 y = data[:, 0].astype(int) # 标签 18 scaler = StandardScaler() 19 x_std = scaler.fit_transform(x) # 标准化 20 # 将数据划分为训练集和测试集,test_size=.3表示30%的测试集 21 x_train, x_test, y_train, y_test = train_test_split(x_std, y, test_size=.3) 22 return x_train, x_test, y_train, y_test 23 24 25 def svm_c(x_train, x_test, y_train, y_test): 26 # rbf核函数,设置数据权重 27 svc = SVC(kernel='rbf', class_weight='balanced',) 28 c_range = np.logspace(-5, 15, 11, base=2) 29 gamma_range = np.logspace(-9, 3, 13, base=2) 30 # 网格搜索交叉验证的参数范围,cv=3,3折交叉 31 param_grid = [{'kernel': ['rbf'], 'C': c_range, 'gamma': gamma_range}] 32 grid = GridSearchCV(svc, param_grid, cv=3, n_jobs=-1) 33 # 训练模型 34 clf = grid.fit(x_train, y_train) 35 # 计算测试集精度 36 score = grid.score(x_test, y_test) 37 print('精度为%s' % score) 38 39 if __name__ == '__main__':
40 svm_c(*load_data('example.csv'))
其它内容#
网格搜索小技巧#
网格搜索法中寻找最优参数中为寻找最优参数,网格大小如果设置范围大且步长密集的话难免耗时,但是不这样的话又可能找到的参数不是很好,针对这解决方法是,先在大范围,大步长的粗糙网格内寻找参数。在找到的参数左右在设置精细步长找寻最优参数比如:
- 一开始寻找范围是 C = 2−5 , 2 −3 , . . . , 2 15 and γ = 2−15 , 2 −13 , . . . , 2 3 .由此找到的最优参数是(23 , 2 −5 );
- 然后设置更小一点的步长,参数范围变为21 , 2 1.25 , . . . , 2 5 and γ = 2−7 , 2 −6.75 , . . . , 2−3 在这个参数范围再寻找最优参数。
这样既可以避免一开始就使用大范围,小步长而导致分类器进行过于多的计算而导致计算时间的增加。
线性核和RBF的选择#
如果训练样本的特征数量过于巨大,也许就不需要通过RBF等非线性核函数将其映射到更高的维度空间上,利用非线性核函数也并不能提高分类器的性能。利用linear核函数也可以获得足够好的结果,此外,也只需寻找一个合适参数C,但是利用RBF核函数取得与线性核函数一样的效果的话需要寻找两个合适参数(C, γ)。
分三种情况讨论:
- 样本数量远小于特征数量:这种情况,利用情况利用linear核效果会高于RBF核。
- 样本数量和特征数量一样大:线性核合适,且速度也更快。liblinear更适合
- 样本数量远大于特征数量: 非线性核RBF等合适。
本文主要参考这篇A Practical Guide to Support Vector Classification
libsvm:A Library for Support Vector Machines
liblinear : A Library for Large Linear Classification
sklearn : scikit-learn Machine Learning in Python
其它文章:
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· Apache Tomcat RCE漏洞复现(CVE-2025-24813)