机器学习基础-线性回归,逻辑回归,SVM
回归
给定数据,回归就是用一个方程尽可能地拟合数据点的分布;
线性回归
假设数据中 \(y\) 与 \(x\) 呈线性关系;
给定,线性回归就是要找一条线/面,并且让这条直线尽可能地拟合数据点的分布;
二元线性回归:$ \hat{y}=ax_1+bx_2+c $ 去拟合数据
解法:最小二乘;$ loss= \sum{(y_i-\hat{y_i})^2}$
逻辑回归
现在有个二分类任务;且线性可分;
如何用线性回归去解决分类问题? 用 sigmoid 函数!
\[P(y=1|x)= sigmoid(ax_1+bx_2+c) \\
sigmoid(x)=\frac{1}{1+e^{-x}}
\]
损失函数:交叉熵
\[loss=-\sum{y_ilogP(y=1|x)+(1-y_i)logP(y=0|x)}
\]
当决策面非线性:可以用非线性的函数替换 (\(x^2, x^3, x_1*x_2\))
当任务是多分类:可以用多个逻辑回归;每个模型负责分类一个类别和其他类别
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?