随笔分类 -  优化学习算法

摘要:什么是超参数 所谓超参数,就是机器学习模型里面的框架参数,比如聚类方法里面类的个数,或者话题模型里面话题的个数等等,都称为超参数。它们跟训练过程中学习的参数(权重)是不一样的,通常是手工设定,不断试错调整,或者对一系列穷举出来的参数组合一通枚举(叫做网格搜索)。深度学习和神经网络模型,有很多这样的参 阅读全文
posted @ 2018-01-05 10:24 彼岸花杀是条狗 阅读(5118) 评论(0) 推荐(0) 编辑
摘要:简介Adam 是一种可以替代传统随机梯度下降(SGD)过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。Adam 最开始是由 OpenAI 的 Diederik Kingma 和多伦多大学的 Jimmy Ba 在提交到 2015 年 ICLR 论文(Adam: A Method for Stochastic Optimization)中提出的。「Adam」,其并不是首字母缩写,也不是人名... 阅读全文
posted @ 2018-01-03 14:25 彼岸花杀是条狗 阅读(63881) 评论(1) 推荐(2) 编辑
摘要:简述梯度下降法又被称为最速下降法(Steepest descend method),其理论基础是梯度的概念。梯度与方向导数的关系为:梯度的方向与取得最大方向导数值的方向一致,而梯度的模就是函数在该点的方向导数的最大值。现在假设我们要求函数的最值,采用梯度下降法,如图所示:梯度下降的相关概念 在详细了解梯度下降的算法之前,我们先看看相关的一些概念。 1. 步长(Learning rate... 阅读全文
posted @ 2018-01-01 20:05 彼岸花杀是条狗 阅读(5914) 评论(0) 推荐(0) 编辑
摘要:DFP 该算法的核心是:通过迭代的方法,对Hk+1(-1)近似。迭代方式: 其中D0通常取为单位矩阵,关键是每一步构造矫正矩阵△Dk。 考虑△Dk 的待定形式为 拟牛顿的条件 这里插播一下拟牛顿的条件。 前面有讲到,拟牛顿法是想找到一个近似矩阵D来近似海森矩阵H的逆。显然D的选择是必须有条件的。为了 阅读全文
posted @ 2017-12-24 09:55 彼岸花杀是条狗 阅读(962) 评论(0) 推荐(0) 编辑
摘要:Armijo-Goldstein准则与Wolfe-Powell准则是不精确的一维搜索的两大准则。 之所以要遵循这些准则是为了能使算法收敛(求最优解)。即要使我们的不精确的一维搜索的步长满足一定的规则,使之后的求最优解的过程不至于因为步长过大或者过小而不收敛。 Armijo-Goldstein准则 A 阅读全文
posted @ 2017-12-23 16:31 彼岸花杀是条狗 阅读(15410) 评论(0) 推荐(1) 编辑
摘要:拟牛顿法 拟牛顿法是求解非线性优化问题最有效的方法之一。DFP、BFGS、L-BFGS算法都是重要的拟牛顿法。 求函数的根 对f(x)在Xn附近做一阶泰勒展开 f(x)=f(Xn)+f’(Xn)(x-Xn) 假设Xn+1是该方程的根 那么就得到 Xn+1=Xn-f(Xn)/f’(Xn) 通过不断迭代 阅读全文
posted @ 2017-12-23 15:23 彼岸花杀是条狗 阅读(4375) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示