随笔 - 252  文章 - 0  评论 - 2269  阅读 - 542万

随笔分类 -  最优化

本人常用资源整理(ing...)
摘要:Deep Learning(深度学习):ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二Bengio团队的deep learning教程,用的theano库,主要是rbm系列,搞pytho... 阅读全文
posted @ 2012-05-24 08:32 tornadomeet 阅读(45173) 评论(24) 推荐(41) 编辑
一些知识点的初步理解_5(梯度下降,ing...)
摘要:梯度下降法又叫最速下降法,英文名为steepest descend method.估计搞研究的人应该经常听见这个算法吧,用来求解表达式最大或者最小值的,属于无约束优化问题。 首先我们应该清楚,一个多元函数的梯度方向是该函数值增大最陡的方向。具体化到1元函数中时,梯度方向首先是沿着曲线的切线的,然后取切线向上增长的方向为梯度方向,2元或者多元函数中,梯度向量为函数值f对每个变量的导数,该向量的方向就是梯度的方向,当然向量的大小也就是梯度的大小。 现在假设我们要求函数的最值,采用梯度下降法,如图所示: 梯度下降法的基本思想还是挺简单的,现假设我们要求函数f的最小值,首先得选取一个初始点后,然后.. 阅读全文
posted @ 2012-04-10 19:50 tornadomeet 阅读(9653) 评论(0) 推荐(1) 编辑

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

阿萨德发斯蒂芬
点击右上角即可分享
微信分享提示