数据科学家成长之旅

关注 机器学习,深度学习,自然语言处理,数学

2017年3月10日 #

感知机、logistic回归 损失函数对比探讨

摘要: 感知机、logistic回归 损失函数对比探讨 感知机 假如数据集是线性可分的,感知机学习的目标是求得一个能够将正负样本完全分开的分隔超平面 $wx+b=0$ 。其学习策略为,定义(经验)损失函数并将损失函数最小化。通常,定义损失函数的策略是:== 误分类点 到分隔超平面的总距离==。【李航,2.2 阅读全文

posted @ 2017-03-10 09:47 会飞的蝸牛 阅读(4830) 评论(0) 推荐(0) 编辑

SVM探讨

摘要: SVM探讨 [toc] SVM算法 根据处理问题的复杂度,SVM 可由简到繁分为三种: 线性可分支持向量机 :硬间隔最大化。 线性支持向量机 :数据分布近似线性可分,可通过软间隔最大化(惩罚因子,松弛变量)来线性分隔样本点。 非线性支持向量机 :通过核函数提升特征维度,做个一个非线性的变换,来将非线 阅读全文

posted @ 2017-03-10 09:43 会飞的蝸牛 阅读(907) 评论(0) 推荐(0) 编辑

支持向量机及核函数

摘要: [toc] 常见核函数 线性核 (linear kernel):$$K(x_1,x_2)=x_1\cdot x_2+c$$ 多项式核 (polynomial kernel):$$K(x_1, x_2)=(x_1\cdot x_2 +c)^d$$其中 $d\ge1$,为多项式的次数。 感知器核 (Si 阅读全文

posted @ 2017-03-10 09:40 会飞的蝸牛 阅读(1597) 评论(0) 推荐(0) 编辑

导航