感知机原理小结
感知机可以说是最古老的分类方法之一了,在1957年就已经提出。今天看来它的分类模型在大多数时候泛化能力不强,但是它的原理却值得好好研究。因为研究透了感知机模型,学习支持向量机的话会降低不少难度。同时如果研究透了感知机模型,再学习神经网络,深度学习,也是一个很好的起点。这里对感知机的原理做一个小结。
1. 感知机模型
感知机的思想很简单,比如我们在一个平台上有很多的男孩女孩,感知机的模型就是尝试找到一条直线,能够把所有的男孩和女孩隔离开。放到三维空间或者更高维的空间,感知机的模型就是尝试找到一个超平面,能够把所有的二元类别隔离开。当然你会问,如果我们找不到这么一条直线的话怎么办?找不到的话那就意味着类别线性不可分,也就意味着感知机模型不适合你的数据的分类。使用感知机一个最大的前提,就是数据是线性可分的。这严重限制了感知机的使用场景。它的分类竞争对手在面对不可分的情况时,比如支持向量机可以通过核技巧来让数据在高维可分,神经网络可以通过激活函数和增加隐藏层来让数据可分。
用数学的语言来说,如果我们有m个样本,每个样本对应于n维特征和一个二元类别输出,如下:
我们的目标是找到这样一个超平面,即:
让其中一种类别的样本都满足 ,让另一种类别的样本都满足 ,从而得到线性可分。如果数据线性可分,这样的超平面一般都不是唯一的,也就是说感知机模型可以有多个解。
为了简化这个超平面的写法,我们增加一个特征 ,这样超平面为。进一步用向量来表示为: ,其中为(n+1)x1的向量,x为(n+1)x1的向量, 为内积,后面我们都用向量来表示超平面。
而感知机的模型可以定义为: 其中:
2. 感知机模型损失函数
为了后面便于定义损失函数,我们将满足的样本类别输出值取为1,满足的样本类别输出值取为-1, 这样取y的值有一个好处,就是方便定义损失函数。因为正确分类的样本满足 ,而错误分类的样本满足 。我们损失函数的优化目标,就是期望使误分类的所有样本,到超平面的距离之和最小。
由于,所以对于每一个误分类的样本 ,到超平面的距离是
,
其中为L2范数。
我们假设所有误分类的点的集合为M,则所有误分类的样本到超平面的距离之和为:
,
这样我们就得到了初步的感知机模型的损失函数。
我们研究可以发现,分子和分母都含有,当分子的扩大N倍时,分母的L2范数也会扩大N倍。也就是说,分子和分母有固定的倍数关系。那么我们可以固定分子或者分母为1,然后求另一个即分子自己或者分母的倒数的最小化作为损失函数,这样可以简化我们的损失函数。在感知机模型中,我们采用的是保留分子,即最终感知机模型的损失函数简化为:
题外话,如果大家了解过支持向量机,就发现支持向量机采用的是固定分子为1,然后求的最大化。采用不同的损失函数主要与它的后面的优化算法有关系。
3. 感知机模型损失函数的优化方法
上一节我们讲到了感知机的损失函数:,其中M是所有误分类的点的集合。这个损失函数可以用梯度下降法或者拟牛顿法来解决,常用的是梯度下降法。
但是用普通的基于所有样本的梯度和的均值的批量梯度下降法(BGD)是行不通的,原因在于我们的损失函数里面有限定,只有误分类的M集合里面的样本才能参与损失函数的优化。所以我们不能用最普通的批量梯度下降,只能采用随机梯度下降(SGD)或者小批量梯度下降(MBGD)。如果对这几种梯度下降法的区别不了解,可以参考我的另一篇文章梯度下降(Gradient Descent)小结。
感知机模型选择的是采用随机梯度下降,这意味着我们每次仅仅需要使用一个误分类的点来更新梯度。
损失函数基于向量的的偏导数为:
的梯度下降迭代公式应该为:
由于我们采用随机梯度下降,所以每次仅仅采用一个误分类的样本来计算梯度,假设采用第i个样本来更新梯度,则简化后的向量的梯度下降迭代公式为:
其中为步长,为样本输出1或者-1,为(n+1)x1的向量。
3. 感知机模型的算法
前两节我们谈到了感知机模型,对应的损失函数和优化方法。这里我们就对感知机模型基于随机梯度下降来求向量的算法做一个总结。
算法的输入为m个样本,每个样本对应于n维特征和一个二元类别输出1或者-1,如下:
输出为分离超平面的模型系数向量
算法的执行步骤如下:
1) 定义所有为1。选择向量的初值和 步长的初值。可以将向量置为0向量,步长设置为1。要注意的是,由于感知机的解不唯一,使用的这两个初值会影响向量的最终迭代结果。
2) 在训练集里面选择一个误分类的点, 用向量表示即,这个点应该满足:
3) 对向量进行一次随机梯度下降的迭代:
4)检查训练集里是否还有误分类的点,如果没有,算法结束,此时的向量即为最终结果。如果有,继续第2步。
4. 感知机模型的算法对偶形式
上一节的感知机模型的算法形式我们一般称为感知机模型的算法原始形式。对偶形式是对算法执行速度的优化。具体是怎么优化的呢?
通过上一节感知机模型的算法原始形式可以看出,我们每次梯度的迭代都是选择的一个样本来更新向量。最终经过若干次的迭代得到最终的结果。对于从来都没有误分类过的样本,他被选择参与迭代的次数是0,对于被多次误分类而更新的样本j,它参与迭代的次数我们设置为。如果令向量初始值为0向量, 这样我们的向量的表达式可以写为:
其中为样本在随机梯度下降到当前的这一步之前因误分类而更新的次数。
每一个样本的的初始值为0,每当此样本在某一次梯度下降迭代中因误分类而更新时,的值加1。
由于步长为常量,我们令,这样向量的表达式为:
在每一步判断误分类条件的地方,我们用 的变种 来判断误分类。注意到这个判断误分类的形式里面是计算两个样本的内积,而且这个内积计算的结果在下面的迭代次数中可以重用。如果我们事先用矩阵运算计算出所有的样本之间的内积,那么在算法运行时, 仅仅一次的矩阵内积运算比多次的循环计算省时。 计算量最大的判断误分类这儿就省下了很多的时间,,这也是对偶形式的感知机模型比原始形式优的原因。
样本的内积矩阵称为Gram矩阵,它是一个对称矩阵,记为
这里给出感知机模型的算法对偶形式的内容。
算法的输入为m个样本,每个样本对应于n维特征和一个二元类别输出1或者-1,如下:
输出为分离超平面的模型系数向量
算法的执行步骤如下:
1) 定义所有为1,步长初值,设置的初值0。可以将设置为1。要注意的是,由于感知机的解不唯一,使用的步长初值会影响向量的最终迭代结果。
2) 计算所有样本内积形成的Gram矩阵G。
3) 在训练集里面选择一个误分类的点,这个点应该满足: , 在检查是否满足时可以通过查询Gram矩阵的 的值来快速计算是否小于0。
4) 对向量的第i个分量进行一次更新:
5)检查训练集里是否还有误分类的点,如果没有,算法结束,此时的向量最终结果为下式。如果有,继续第3步。
其中 为向量的第j个分量。
5. 小结
感知机算法是一个简单易懂的算法,自己编程实现也不太难。前面提到它是很多算法的鼻祖,比如支持向量机算法,神经网络与深度学习。因此虽然它现在已经不是一个在实践中广泛运用的算法,还是值得好好的去研究一下。感知机算法对偶形式为什么在实际运用中比原始形式快,也值得好好去体会。
(欢迎转载,转载请注明出处。欢迎沟通交流: liujianping-ok@163.com)
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)