学习笔记231—SVC,NuSVC,LinearSVC有什么区别
相信大家在机器学习中,一定常见到;SVC,NvSVC,LinearSVC,今天我们就来看看这三者的区别。
一、SVC(C-Support Vector Classification):
支持向量分类,基于libsvm实现的,数据拟合的时间复杂度是数据样本的二次方,这使得他很难扩展到10000个数据集,当输入是多类别时(SVM最初是处理二分类问题的),通过一对一的方案解决,例如:
SVC参数解释 (1)C: 目标函数的惩罚系数C,用来平衡分类间隔margin和错分样本的,default C = 1.0; (2)kernel:参数选择有RBF, Linear, Poly, Sigmoid, 默认的是"RBF"; (3)degree:if you choose 'Poly' in param 2, this is effective, degree决定了多项式的最高次幂; (4)gamma:核函数的系数('Poly', 'RBF' and 'Sigmoid'), 默认是gamma = 1 / n_features; (5)coef0:核函数中的独立项,'RBF' and 'Poly'有效; (6)probablity: 可能性估计是否使用(true or false); (7)shrinking:是否进行启发式; (8)tol(default = 1e - 3): svm结束标准的精度; (9)cache_size: 制定训练所需要的内存(以MB为单位); (10)class_weight: 每个类所占据的权重,不同的类设置不同的惩罚参数C, 缺省的话自适应; (11)verbose: 跟多线程有关,不大明白啥意思具体; (12)max_iter: 最大迭代次数,default = 1, if max_iter = -1, no limited; (13)decision_function_shape : ‘ovo’ 一对一, ‘ovr’ 多对多 or None 无, default=None (14)random_state :用于概率估计的数据重排时的伪随机数生成器的种子。 ps:7,8,9一般不考虑。 from sklearn.svm import SVC import numpy as np X= np.array([[-1,-1],[-2,-1],[1,1],[2,1]]) y = np.array([1,1,2,2]) clf = SVC() clf.fit(X,y) print clf.fit(X,y) print clf.predict([[-0.8,-1]])
二、NuSVC(Nu-Support Vector Classification.):
核支持向量分类,和SVC类似,也是基于libsvm实现的,但不同的是通过一个参数空值支持向量的个数
NuSVC参数 nu:训练误差的一个上界和支持向量的分数的下界。应在间隔(0,1 ]。 其余同SVC ''' import numpy as np X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]]) y = np.array([1, 1, 2, 2]) from sklearn.svm import NuSVC clf = NuSVC() clf.fit(X, y) print clf.fit(X,y) print(clf.predict([[-0.8, -1]]))
三、LinearSVC(Linear Support Vector Classification):
线性支持向量分类,类似于SVC,但是其使用的核函数是”linear“上边介绍的两种是按照brf(径向基函数计算的,其实现也不是基于LIBSVM,所以它具有更大的灵活性在选择处罚和损失函数时,而且可以适应更大的数据集,它支持密集和稀疏的输入是通过一对一的方式解决的
LinearSVC 参数解释
C:目标函数的惩罚系数C,用来平衡分类间隔margin和错分样本的,default C = 1.0;
loss :指定损失函数
penalty :
dual :选择算法来解决对偶或原始优化问题。当n_samples > n_features 时dual=false。
tol :(default = 1e - 3): svm结束标准的精度;
multi_class:如果y输出类别包含多类,用来确定多类策略, ovr表示一对多,“crammer_singer”优化所有类别的一个共同的目标
如果选择“crammer_singer”,损失、惩罚和优化将会被被忽略。
fit_intercept :
intercept_scaling :
class_weight :对于每一个类别i设置惩罚系数C = class_weight[i]*C,如果不给出,权重自动调整为 n_samples / (n_classes * np.bincount(y))
verbose:跟多线程有关,不大明白啥意思具体
from sklearn.svm import LinearSVC
X=[[0],[1],[2],[3]]
Y = [0,1,2,3]
clf = LinearSVC(decision_function_shape='ovo') #ovo为一对一
clf.fit(X,Y)
print clf.fit(X,Y)
dec = clf.decision_function([[1]]) #返回的是样本距离超平面的距离
print dec
clf.decision_function_shape = "ovr"
dec =clf.decision_function([1]) #返回的是样本距离超平面的距离
print dec
#预测
print clf.predict([1])</span>
参考连接:https://www.cda.cn/bigdata/27792.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· 没有源码,如何修改代码逻辑?
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 上周热点回顾(2.24-3.2)
2018-08-23 学习笔记1—python基础