06 2022 档案

深度学习实践1
摘要:对W利用穷举法在【0,4】中每0.1步长寻找最优解import numpy as npimport matplotlib.pyplot as pltx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]def forward(x): return x*wde 阅读全文

posted @ 2022-06-17 10:35 zc-DN 阅读(21) 评论(0) 推荐(0) 编辑

深度学习实践3
摘要:这次利用随机梯度下降,随机梯度下降法在神经网络中被证明是有效的。效率较低(时间复杂度较高),学习性能较好。 随机梯度下降和梯度下降相比区别在于: 1、损失函数由cost()更改为loss()。cost是计算所有训练数据的损失,loss是计算一个训练函数的损失。 2、梯度函数gradient()由计算 阅读全文

posted @ 2022-06-13 11:21 zc-DN 阅读(24) 评论(0) 推荐(0) 编辑

深度学习实践5 (pytorch相关API)
摘要:PyTorch Fashion(风格) 1、prepare dataset 2、design model using Class # 目的是为了前向传播forward,即计算y-hat(预测值) 3、Construct loss and optimizer (using PyTorch API) 其 阅读全文

posted @ 2022-06-13 11:21 zc-DN 阅读(36) 评论(0) 推荐(0) 编辑

深度学习实践4(Tensor相关)
摘要:注意: 1、w是Tensor,Tensor中包含data和grad,data和grad也是Tensor。grad初始为None,调用l.backward()方法后w.grad为Tensor,故更新w.data时需使用w.grad.data。 2、w是Tensor, forward函数的返回值也是Te 阅读全文

posted @ 2022-06-13 11:21 zc-DN 阅读(61) 评论(0) 推荐(0) 编辑

深度学习实践2
摘要:简单的单变量线性回归,利用机器学习中学习过的梯度下降即可import matplotlib.pyplot as plt# prepare the training setx_data = [1.0, 2.0, 3.0]y_data = [2.0, 4.0, 6.0]# initial guess o 阅读全文

posted @ 2022-06-13 10:38 zc-DN 阅读(21) 评论(0) 推荐(0) 编辑

神经网络练习1
摘要:这个练习,使用反向传播的前馈神经网络处理手写数字数据集。 通过反向传播算法实现神经网络成本函数和梯度计算的非正则化和正则化版本。 还将实现随机权重初始化和使用网络进行预测的方法。神经网络的反向传播算法有些复杂,计算的细节很难捋顺,对程序的理解还不到位。 #调入包import numpy as npi 阅读全文

posted @ 2022-06-06 12:11 zc-DN 阅读(107) 评论(0) 推荐(0) 编辑

正则化训练
摘要:正则化是成本函数中的一个术语,它使算法更倾向于“更简单”的模型(在这种情况下,模型将更小的系数)。这个理论有助于减少过拟合,提高模型的泛化能力。 #导入包import numpy as npimport pandas as pdimport matplotlib.pyplot as plt#导入数据 阅读全文

posted @ 2022-06-06 12:10 zc-DN 阅读(82) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示