01 2023 档案
摘要:研究一下不同梯度下降的优化器和自己的优化器的比较(SGD,Momentum,AdaGrad,Adam) 参考:《深度学习入门:基于Python的理论与实现》 import matplotlib.pyplot as plt import numpy as np import latexify from
阅读全文
摘要:研究一下加速梯度下降的方法(试图找到一种不会收敛于局部最优的方法) 发现自己很久没有更新了,现在又在学习着机器学习的内容,正好对梯度下降这里比较感兴趣,因此写了一篇短短的ipynb来实现一下 另外:本文的代码都是基于python3.9 介绍: 本文章主要是对梯度下降(从一个简单的例子出发)的一些方法
阅读全文