吴恩达《机器学习》课程总结(2)_单变量线性回归

Q1模型表示

Q2:代价函数

对于回归问题常用的代价函数是平方误差代价函数:

我们的目标选取合适的参数Θ使得误差函数最小,即直线最逼近真实情况。

Q3:代价函数的直观理解(一个参数)

Q4:代价函数的直观理解(两个参数)

 

Q5梯度下降

 

Q6梯度下降的直观理解

(1)梯度下降法可以最小化任何代价函数,而不仅仅局限于线性回归中的代价函数。

(2)当越来越靠近局部最小值时,梯度值会变小,所以即使学习率不变,参数变化的幅度也会随之减小。

 

(3)学习率过小时参数变化慢,到达最优点的时间长,学习率大时,可能导致代价函数无法收敛,甚至发散。

(4)梯度就是某一点的斜率。

Q7梯度下降的线性回归 

 英语词汇

1
2
3
4
5
6
7
8
Linear regression with one variable ---单变量线性回归
model representation    ---模型表示
training set    ---训练集
hypothesis  ---假设
gradient descent   ---梯度下降
convergence    ---收敛
local minimum   ---局部最小值
global minimum  ---全局最大值

单变量线性回归课程总结(点我)

 

posted @   你的雷哥  阅读(380)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 一起来玩mcp_server_sqlite,让AI帮你做增删改查!!
· 零经验选手,Compose 一天开发一款小游戏!
历史上的今天:
2018-07-24 numpy库
2018-07-24 Tcp编程demo之三部曲
点击右上角即可分享
微信分享提示