2017年5月13日

摘要: 转载自:http://www.cnblogs.com/tornadomeet/archive/2013/03/20/2970724.html 前言: 现在来进入sparse autoencoder的一个实例练习,参考Ng的网页教程:Exercise:Sparse Autoencoder。这个例子所要 阅读全文
posted @ 2017-05-13 16:41 川师15级软工研王*飞 阅读(1536) 评论(0) 推荐(0) 编辑

2017年5月10日

摘要: The wake-sleep algorithm for unsupervisedneural networks 摘要 本文介绍一种在随机神经元组成的多层网络上的无监督学习算法。自下而上的“认知”连接把输入转化成后续隐层的表示(representation),自上而下的“生成”连接利用前一层的表示来 阅读全文
posted @ 2017-05-10 14:25 川师15级软工研王*飞 阅读(159) 评论(0) 推荐(0) 编辑

2017年4月28日

摘要: 转载请声明出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A Singularl 阅读全文
posted @ 2017-04-28 14:01 川师15级软工研王*飞 阅读(176) 评论(0) 推荐(0) 编辑

2017年4月27日

摘要: PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义。能在有限的篇幅把 这个问题讲解的如此清晰,实属不易。原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理 解,比如 个性化推荐中应用了SV 阅读全文
posted @ 2017-04-27 21:56 川师15级软工研王*飞 阅读(270) 评论(0) 推荐(0) 编辑
 
摘要: 转载请声明出处http://blog.csdn.net/zhongkejingwang/article/details/43053513 在网上看到有很多文章介绍SVD的,讲的也都不错,但是感觉还是有需要补充的,特别是关于矩阵和映射之间的对应关系。前段时间看了国外的一篇文章,叫A Singularl 阅读全文
posted @ 2017-04-27 20:52 川师15级软工研王*飞 阅读(161) 评论(0) 推荐(0) 编辑

2017年4月20日

摘要: 转载自:https://cos.name/2013/01/story-of-normal-distribution-2/ 6. 开疆拓土,正态分布的进一步发展 19世纪初,随着拉普拉斯中心极限定理的建立与高斯正态误差理论的问世,正态分布开始崭露头角,逐步在近代概率论和数理统计学中大放异彩。在概率论中 阅读全文
posted @ 2017-04-20 12:13 川师15级软工研王*飞 阅读(1013) 评论(0) 推荐(0) 编辑
 
摘要: 转载自:https://cos.name/2013/01/story-of-normal-distribution-1/ 神说,要有正态分布,就有了正态分布。神看正态分布是好的,就让随机误差服从了正态分布。创世纪—数理统计 1. 正态分布,熟悉的陌生人 学过基础统计学的同学大都对正态分布非常熟悉。这 阅读全文
posted @ 2017-04-20 12:09 川师15级软工研王*飞 阅读(397) 评论(0) 推荐(0) 编辑

2017年4月18日

摘要: 高数里面有一个内容叫做拉格朗日乘子法,用于求解约束条件下的极值问题,过程简单巧妙,也是各类考试的常考题型。 然而,拉格朗日乘子法的原理我却一直不是很清楚,这两天在网上查了资料,也说说我自己的理解,用一个例子来解释。 求解例题如下: (1) 其中min表示求函数f(x,y)的最小值,后面的s.t.表示 阅读全文
posted @ 2017-04-18 14:09 川师15级软工研王*飞 阅读(2155) 评论(1) 推荐(1) 编辑

2017年3月17日

摘要: 光流是图像亮度的运动信息描述。光流法计算最初是由Horn和Schunck于1981年提出的,创造性地将二维速度场与灰度相联系,引入光流约束方程,得到光流计算的基本算法.光流计算基于物体移动的光学特性提出了2个假设: ①运动物体的灰度在很短的间隔时间内保持不变;②给定邻域内的速度向量场变化是缓慢的。 阅读全文
posted @ 2017-03-17 12:12 川师15级软工研王*飞 阅读(703) 评论(0) 推荐(0) 编辑

2017年1月14日

摘要: CNN(卷积神经网络)的误差反传(error back propagation)中有一个非常关键的的步骤就是将某个卷积(Convolve)层的误差传到前一层的池化(Pool)层上,因为在CNN中是2D反传,与传统神经网络中的1D反传有点细节上的不同,下面通过一个简单的例子来详细分解一下这个反传步骤。 阅读全文
posted @ 2017-01-14 16:55 川师15级软工研王*飞 阅读(266) 评论(0) 推荐(0) 编辑