05 2017 档案

摘要: 阅读全文
posted @ 2017-05-15 11:45 outthinker 阅读(334) 评论(0) 推荐(0) 编辑
摘要:转载链接:http://blog.csdn.net/itplus/article/details/21897715 前面的拟牛顿法、DFP、BFGS、L-BFGS算法简短总结一下就是: 牛顿法不仅使用了梯度还使用了梯度下降的趋势,所以能加速下降;DFP和BFGS为了弥补牛顿法的不足(海森矩阵必须可逆 阅读全文
posted @ 2017-05-13 09:22 outthinker 阅读(3012) 评论(2) 推荐(0) 编辑
摘要:转载链接:http://blog.csdn.net/itplus/article/details/21897443 这里,式(2.38)暂时不知如何证出来,有哪位知道麻烦给个思路。 阅读全文
posted @ 2017-05-13 09:12 outthinker 阅读(1266) 评论(0) 推荐(0) 编辑
摘要:转载链接:http://blog.csdn.net/itplus/article/details/21896981 注意:式(2.25)中,蓝色变量之所以是实数可以根据它们的矩阵系数相乘为1*1得到。 阅读全文
posted @ 2017-05-13 09:07 outthinker 阅读(879) 评论(0) 推荐(0) 编辑
摘要:转载链接:http://blog.csdn.net/itplus/article/details/21896619 阅读全文
posted @ 2017-05-13 08:59 outthinker 阅读(318) 评论(0) 推荐(0) 编辑
摘要:在介绍“牛顿法”之前,我先说一下“不动点迭代法”,它是牛顿法的基础; 一、不动点迭代法: PPT链接:https://wenku.baidu.com/view/dc4a73d683d049649b6658ab.html 二、牛顿法 同时,由于牛顿法需要计算hassen矩阵,计算量更大; 阅读全文
posted @ 2017-05-13 08:58 outthinker 阅读(642) 评论(0) 推荐(0) 编辑
摘要:目前为止,我们已经讨论了神经网络在有监督学习中的应用。在有监督学习中,训练样本是有类别标签的。现在假设我们只有一个没有带类别标签的训练样本集合 ,其中 。自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如 。下图是一个自编码神经网络的示例。 自编码神经网络尝试学习一 阅读全文
posted @ 2017-05-06 16:58 outthinker 阅读(1022) 评论(0) 推荐(0) 编辑
摘要:转载链接:http://www.cnblogs.com/tornadomeet/archive/2013/03/17/2964858.html 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习 阅读全文
posted @ 2017-05-05 20:39 outthinker 阅读(263) 评论(0) 推荐(0) 编辑
摘要:转载链接:http://www.cnblogs.com/tornadomeet/archive/2013/03/17/2964515.html 前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容 阅读全文
posted @ 2017-05-05 16:32 outthinker 阅读(166) 评论(0) 推荐(0) 编辑
摘要:转载:http://www.cnblogs.com/tornadomeet/archive/2013/03/16/2963919.html 牛顿法:http://blog.csdn.net/xp215774576/article/details/45974081 http://blog.csdn.n 阅读全文
posted @ 2017-05-05 11:57 outthinker 阅读(296) 评论(0) 推荐(0) 编辑
摘要:转载:http://www.cnblogs.com/tornadomeet/archive/2013/03/15/2962116.html 前言: 本文主要是来练习多变量线性回归问题(其实本文也就3个变量),参考资料见网页:http://openclassroom.stanford.edu/Main 阅读全文
posted @ 2017-05-05 10:34 outthinker 阅读(336) 评论(0) 推荐(0) 编辑
摘要:转载链接:http://www.cnblogs.com/tornadomeet/archive/2013/03/15/2961660.html 前言 本文是多元线性回归的练习,这里练习的是最简单的二元线性回归,参考斯坦福大学的教学网http://openclassroom.stanford.edu/ 阅读全文
posted @ 2017-05-05 09:54 outthinker 阅读(412) 评论(0) 推荐(0) 编辑
摘要:一直寻思着要系统地学一下Deep Learning,在网上搜了不少,建议路线先看UFLDL教程,Andrew NG执笔,很好,后面的exercise要做(建议配合大神们的博客一起看,我是参考tornadomeet的博客来看的),然后再去看李飞飞的cs231n,后面的作业也一定要做;放出链接: UFL 阅读全文
posted @ 2017-05-05 09:38 outthinker 阅读(408) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示