Lecture2 Linear methods for regression, Optimization

书接上回,KNN模型有两个好处,一个是它很简单,另一个就是它既可以用来做回归,又可以用来做分类。但是坏处也很明显,就是它太粗暴了,基本上不怎么学习,只是对数据做一个简单的存储,等有了新的数据(测试数据)进来以后,才开始学习。所以我们也叫它“惰性学习”。在这样的情况下,KNN的计算体量,可想而知,是很大的。

另一个学习算法:linear regression 将在接下来的内容中详细介绍。

linear regression

监督学习:我们有一组数据集,并且已经知道了正确的 output,以及 input 和 output 之间的关系。我们期望根据已有的数据确定一个 input 到 output 的映射关系,从而对一组新的 input 求出 output。
监督学习通常分为“回归”和“分类”问题。线性回归模型是 监督学习模型 supervised learning model 的一种。

Model

note*: 加粗的字体是向量(w

Loss function

note*:
对单个样本,你的prediction和ground truth(正确答案)之间的差异是Loss function,这种差异可以用极大似然,均方误差等表示。

针对一个整个数据集(m个样本),你的prediction和ground truth(正确答案)之间的差异是Cost function,这种差异可以用极大似然,均方误差表示。

也就是Cost function 和Loss function就差在有没有把预测值和真实值的差异求和再取平均

mse(均方误差):考虑求导后简化求和后乘1/2m, maximum likely hood :除以m

本文作者:zz-w

本文链接:https://www.cnblogs.com/zz-w/p/16712105.html

版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。

posted @   AAA建材王师傅  阅读(43)  评论(0编辑  收藏  举报
点击右上角即可分享
微信分享提示
评论
收藏
关注
推荐
深色
回顶
收起