机器学习基础-线性回归,逻辑回归,SVM

回归

给定数据,回归就是用一个方程尽可能地拟合数据点的分布;

线性回归

假设数据中 \(y\)\(x\) 呈线性关系;
给定,线性回归就是要找一条线/面,并且让这条直线尽可能地拟合数据点的分布;

二元线性回归:$ \hat{y}=ax_1+bx_2+c $ 去拟合数据
解法:最小二乘;$ loss= \sum{(y_i-\hat{y_i})^2}$

逻辑回归

现在有个二分类任务;且线性可分
如何用线性回归去解决分类问题? 用 sigmoid 函数!

\[P(y=1|x)= sigmoid(ax_1+bx_2+c) \\ sigmoid(x)=\frac{1}{1+e^{-x}} \]

损失函数:交叉熵

\[loss=-\sum{y_ilogP(y=1|x)+(1-y_i)logP(y=0|x)} \]

当决策面非线性:可以用非线性的函数替换 (\(x^2, x^3, x_1*x_2\))

当任务是多分类:可以用多个逻辑回归;每个模型负责分类一个类别和其他类别

SVM

posted @   shiiiilong  阅读(13)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示