机器学习的相关知识-逻辑回归
这个资源真好机器学习500问,其实完全看这个就够了,我只是做一下笔记,膜拜膜拜。刚开始学的时候,因为是偏深度学习一些,导致一些基础的东西,不太牢靠,就记录一下,写的不好,请多担待。
数学基础蛮重要,了解的但不仅限于矩阵、求导、矩阵相关运算(特征向量、特征值、奇异值等等)、概率(贝叶斯公式、各种分布)相关知识。
逻辑回归
- 生成模型,知道了联合概率概率密度模型 P ( X , Y ) P(X,Y) P(X,Y),在求出后验概率 P ( Y ∣ X ) P(Y|X) P(Y∣X),再利用它进行分类。贝叶斯 P ( Y ∣ X ) = P ( X , Y ) / P ( X ) P(Y|X)=P(X,Y)/P(X) P(Y∣X)=P(X,Y)/P(X) ,基本就是变分自编码器的思想了,隐马尔可夫,语音序列的预测。首先知道 Y 1 Y_1 Y1中的 X X X是什么样子的,再知道 Y 2 Y_2 Y2中的 X X X是什么样子的,这样给了我一些 X X X就可以知道到底是和 Y 1 , Y 2 Y_1,Y_2 Y1,Y2哪个接近。我研究 X X X之间的相互关系,知道属于 Y 1 Y_1 Y1的有哪些共同特征,一般是数据量大的时候用。
- 判别模型,直接求出 Y = f ( X ) Y=f(X) Y=f(X)或者直接条件概率分布 P ( Y ∣ X ) P(Y|X) P(Y∣X)对问题直接求解。典型的判别模型包括k近邻,感知级,决策树,支持向量机等。就是直接根据输入的X进行判断,看下它满足哪个Y的特征,是哪个就是哪个。我不去求证 X X X本身有什么特性,我只管它满足哪些条件是 Y 1 , Y 2 Y_1,Y_2 Y1,Y2,一般在小样本里用。
朴素贝叶斯和逻辑回归
逻辑回归是判别模型,依据最大似然,逻辑回归要求特征参数间的关系是线性的。
朴素贝叶斯是生成模型,依据是贝叶斯,需要条件独立假设。
线性回归和逻辑回归
线性回归 | 逻辑回归 | |
---|---|---|
目的 | 预测 | 分类 |
y ( i ) y^{(i)} y(i) | 未知 | (0,1) |
函数 | 拟合函数 | 预测函数 |
参数计算方式 | 最小二乘法 | 极大似然估计 |
就比如给定身高让我预测体重,拟合就是要知道具体多重,预测就是知道偏重还是偏轻。
最小二乘法
它就是假设录入的数据有误差,去找最接近真实值的数据。就好比,我用五把尺子去量同一个物体,但是出来五个不一样的数 x 1 , x 2 . . . x_1,x_2... x1,x2...,那最真实的是多少呢?法国数学家,阿德里安-马里·勒让德就说让总的误差平方最小的值就是真实值。公式 S = ∑ ( x − x i ) 2 S=\sum(x-x_{i})^2 S=∑(x−xi)2通过让这个 S S S最小,那就是 ∑ ( x − x i ) 2 = 0 \sum(x-x_{i})^2=0 ∑(x−xi)2=0 x x x就是真值。其实也就是求这五个数的算数平均数了。既然 x x x是量出来的,那也可以用一个公式表示 x = f ( c ) x=f(c) x=f(c),从而能把 f ( c ) f(c) f(c)求出来。也就是求导嘛,公式有了,求一些系数的偏导就好了。
极大似然估计
就拿抛硬币举例子,连着抛10次,6次向上,4次向下,单抛硬币向上的概率最大为多少。最大似然估计可以往正态分布上引用,我的理解就是从现象,反推概率。把所有单次抛硬币的概率遍历一遍,比如0.1,0.2…算出发生这个现象的最大值,曲线画出来就是概率分布了,发现0.6时最大,那就是0.6了。
本文来自博客园,作者:赫凯,转载请注明原文链接:https://www.cnblogs.com/heKaiii/p/17137428.html
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!