随笔 - 1762  文章 - 0  评论 - 109  阅读 - 431万

吴恩达深度学习-P10 2.4 梯度下降法

https://www.bilibili.com/video/BV1FT4y1E74V?p=10

损失函数:

 

(y(hat),y)=(预测值,标签值)

损失函数衡量了参数w,b在训练集上的训练效果。

 

 

如上图:w,b表示空间参数(spatial parameters),这里当作是自变量,找到参数w,b使得costfunction取得最小值。其实,w,b可以是高维的向量,这里为了绘图方便,都表示成了一个实数。

要注意的点:

1.要用某些之初始化w和b.

2.假如函数是凸函数,则可以初始化为任意的位置上,它都能很容易的到达最低点。

3.假如函数是非凸函数,则不可以初始化在随意的位置上。

 

 经过多部迭代之后,函数能够收敛到全局最优点。

 

 

先用一维的曲线说明梯度下降的过程:

 

 在算法收敛之前,会重复对参数进行求导更新。α是学习率,可以控制每一次更新的时候的步长。或者说梯度下降的步长。

假设参数w的初始化位置如下图红色圆圈所示:

 

因为在上图所示位置处,导数的值是正的,所以更新的过程,w会向左边移动,J最终会收敛到最低点。

 

 

假如w的初始值一开始在左边,此时导数的值是负的,在w更新的过程中,它会向右边移动,也可以让J收敛到最低位置处。

 

 

当有偏置b的时候,参数的更新公式如下所示:

 

posted on   一杯明月  阅读(89)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
历史上的今天:
2018-08-07 matlab中的try...catch...end
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

点击右上角即可分享
微信分享提示