梯度下降,向量化,广播
1.成本函数J(w,b)是一个凸函数
2.梯度下降法就是从初始点开始朝最陡的方向走一步,一次次迭代往下走,
最终会得到一个全局最优解
3.w = w-αdJ(w,b)/dw,α是指学习效率,dJ(w,b)/dw是指w的更变或变化
.在深度学习中会出现很多数据集,如果过通过for循环一次次地遍历会降低
效率,可以通过向量化来进行运算,效率更高,要快300倍左右
4.向量化vectorized
例如:计算n个y = w^Tx+b,可以使用numpy库中的dot()函数
z = np.dot(w,x)+b,其中dot(w,x)就是表示w^T
5.dz^i = a^i - y^i
6.dz求和:
db = 1/m*np.sum(dz^i)
7.总体:完成一次训练集m的梯度下降
Z = w^T*X+b =np.dot(w.T,X)+b
A = 符号(Z)
dZ = A-Y
dw = i/m*dZ^T
db = i/m*np.sum(dZ)
w = w - αdw
b = b - αdb
8.对矩阵中的每一列求和,并且求每一列占比例
1)先使用np包中的np.array()创建矩阵
A = np.array()
2)再使用 矩阵变量名.sum(axis = 0)求第一列的和,axis=0表示竖立求和
当axis = 1就是水平求和
cal = A.sum(axis = 0)
3)使用100*矩阵变量名/每列和变量.reshape(1,4)#表示矩阵的函数1,4指行列
percentage = 100*A/cal.reshape(1,4)
9.当我们进行矩阵运算时,除法如果不确定矩阵的大小直接使用reshape()函数
就可以
10.如果一个向量跟一个数相加,那么将这个数字展开为列向量相加
11.如果后面的一个矩阵的行列阶数比前面一个少,那么会复制自己与前面一样
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 一起来玩mcp_server_sqlite,让AI帮你做增删改查!!
· 零经验选手,Compose 一天开发一款小游戏!