摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/4292823.html,转载请注明出处]我的博客主营地迁至github,欢迎朋友们有空去看看:http://breezedeus.github.io/,阅读体验好很多。本文具体内容:http://breezedeu... 阅读全文
posted @ 2015-02-15 13:49 BreezeDeus 阅读(361) 评论(0) 推荐(0) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/4286033.html,转载请注明出处]我的博客主营地迁至github,欢迎朋友们有空去看看:http://breezedeus.github.io/,阅读体验好很多。本文具体内容:http://breezedeu... 阅读全文
posted @ 2015-02-11 13:43 BreezeDeus 阅读(341) 评论(0) 推荐(0) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/4114686.html,转载请注明出处]我的博客主营地迁至github,欢迎朋友们有空去看看:http://breezedeus.github.io/,阅读体验好很多。本文具体内容:http://breezedeu... 阅读全文
posted @ 2014-11-22 08:44 BreezeDeus 阅读(4644) 评论(0) 推荐(0) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/4109480.html,转载请注明出处]我的博客主营地迁至github,欢迎朋友们有空去看看:http://breezedeus.github.io/,阅读体验好很多。本文具体内容:http://breezedeu... 阅读全文
posted @ 2014-11-19 23:16 BreezeDeus 阅读(7435) 评论(0) 推荐(0) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/4109456.html,转载请注明出处]我的博客主营地迁至github,欢迎朋友们有空去看看:http://breezedeus.github.io/,阅读体验好很多。本文具体内容:http://breezedeu... 阅读全文
posted @ 2014-11-19 23:06 BreezeDeus 阅读(935) 评论(0) 推荐(0) 编辑
摘要: [原文链接:http://engineering.richrelevance.com/recommendations-thompson-sampling/。] [本文链接:http://www.cnblogs.com/breezedeus/p/3775339.html,转载请注明出处] Recommendations with Thompson Sampling 06/05/2014 • T... 阅读全文
posted @ 2014-06-07 20:43 BreezeDeus 阅读(1806) 评论(0) 推荐(0) 编辑
摘要: [原文链接:http://engineering.richrelevance.com/bandits-recommendation-systems/。] [本文链接:http://www.cnblogs.com/breezedeus/p/3775316.html,转载请注明出处] Bandits for Recommendation Systems 06/02/2014 • Topics: Ba... 阅读全文
posted @ 2014-06-07 20:18 BreezeDeus 阅读(1080) 评论(0) 推荐(0) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/3496819.html,转载请注明出处] 从等式约束的最小化问题说起: 上面问题的拉格朗日表达式为: 也就是前面的最小化问题可以写为: \(\min\limits_{x} \max\limits_{y} L(x, y)\) 。它对应的对偶问题为: \(\max\limits_{y} \min\limi... 阅读全文
posted @ 2013-12-29 21:39 BreezeDeus 阅读(40862) 评论(2) 推荐(1) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/p/3426757.html,转载请注明出处] 假设我们要求解以下的最小化问题: \( \min\limits_x f(x) \) 。如果\( f(x) \)可导,那么一个简单的方法是使用Gradient Descent (GD)方法,也即使用以下的式子进行迭代求解: \( x_{k+1} := x_{k} - \a... 阅读全文
posted @ 2013-11-16 14:54 BreezeDeus 阅读(9440) 评论(1) 推荐(1) 编辑
摘要: [本文链接:http://www.cnblogs.com/breezedeus/archive/2013/04/22/3036050.html,转载请注明出处] 神经网络模型通常被用于做有监督学习(如分类,回归等情景),本文主要介绍下神经网络模型中使用后项传播算法(Backpropagation)来计算梯度的方法。下图是一个四层神经网络模型的图表示,其中第一层(L1)是输入层,第四层(L4)是... 阅读全文
posted @ 2013-04-22 17:26 BreezeDeus 阅读(728) 评论(0) 推荐(0) 编辑