会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Yongkang Zhang
高山仰止,景行行止,虽不能至,然心向往之
博客园
首页
新随笔
管理
上一页
1
2
3
4
5
6
下一页
2018年7月31日
机器学习技法(林轩田)学习笔记:Lecture 15
摘要: Lecture 15: Matrix Factorization Linear Network Hypothesis Recommender System Revisited 在推荐系统问题中,我们有若干原始的训练数据,训练样本的输入$\tilde x_n$是用户ID,$y_n=r_{nm}$,即I
阅读全文
posted @ 2018-07-31 10:56 YongkangZhang
阅读(205)
评论(0)
推荐(0)
2018年7月30日
机器学习技法(林轩田)学习笔记:Lecture 13 & Lecture 14
摘要: Lecture 13: Deep Learning Autoencoder autoencoder是深度学习中一种常用的初始化权重的方法。 如上图所示,首先,从第0~1层的权重开始,一层层用autoencoder初始化每两层之间的权重,然后再使用训练集对整个网络进行训练 autoencoder是如何
阅读全文
posted @ 2018-07-30 19:48 YongkangZhang
阅读(295)
评论(0)
推荐(0)
机器学习技法(林轩田)学习笔记:Lecture 11 & Lecture 12
摘要: Lecture 11: Gradient Boosted Decision Tree Adaptive Boosted Decision Tree From Random Forest to AdaBoost DTree 在随机森林中,我们通过特殊的bootstrap方法产生了T个$\tilde{\
阅读全文
posted @ 2018-07-30 11:17 YongkangZhang
阅读(239)
评论(0)
推荐(0)
2018年7月29日
机器学习技法(林轩田)学习笔记:Lecture 9 & Lecture 10
摘要: Lecture 9: Decision Tree Decision Tree Hypothesis 之前介绍的uniform blending和linear blending等,$G$中每个假设函数$g_t$前的权重都是一个常数$\alpha_t$($G(x)=\sum_{t=1}^T \alpha
阅读全文
posted @ 2018-07-29 11:03 YongkangZhang
阅读(633)
评论(0)
推荐(0)
2018年7月28日
机器学习技法(林轩田)学习笔记:Lecture 7 & Lecture 8
摘要: Lecture 7:Blending and Bagging Motivation of Aggregation 现在给出T个假设函数$g_1,\cdots,g_T$,我们希望充分利用它们,得到一个更好的假设函数$G$,我们有几种方法: 1、用交叉验证的方法从T个g里选$E_{val}$最小的:$G
阅读全文
posted @ 2018-07-28 16:29 YongkangZhang
阅读(251)
评论(0)
推荐(0)
2018年7月27日
机器学习技法(林轩田)学习笔记:Lecture 5 & Lecture 6
摘要: Lecture 5:Kernel Logistic Regression Soft Margin SVM as Regularized Model 我们首先回顾Soft Margin SVM的优化目标 在得到的最优解$(b,w,\xi)$中,当$(x_n,y_n)$没有越过margin自己这一方的边
阅读全文
posted @ 2018-07-27 20:22 YongkangZhang
阅读(332)
评论(0)
推荐(0)
机器学习技法(林轩田)学习笔记:Lecture 3 & Lecture 4
摘要: Lecture 3:Kernel Support Vector Machine Kernel Trick 回顾Lecture 2中SVM的拉格朗日对偶问题: 对偶问题中,有n个变量需要求解,n个不等式约束条件和1个等式约束条件 整个问题只有在计算$q_{n,m}$时与$\tilde d$有联系:计算
阅读全文
posted @ 2018-07-27 13:30 YongkangZhang
阅读(235)
评论(0)
推荐(0)
2018年7月26日
机器学习技法(林轩田)学习笔记:Lecture 1 & Lecture 2
摘要: Lecture 1:Linear Support Vector Machine Large Margin Separating Hyperplane 在二分类问题中,假设现在我们有大小为n的线性可分的训练集$\mathcal D$ 在PLA/口袋算法中,对于上图中的三种假设函数$h=\mathrm{
阅读全文
posted @ 2018-07-26 15:36 YongkangZhang
阅读(320)
评论(0)
推荐(0)
机器学习基石(林轩田)学习笔记:Lecture 16
摘要: Lecture 16:Three Learning Principles Occam's Razor 奥卡姆剃刀原则:如无必要,勿增实体(entities must not be multiplied beyond necessity) 意思就是,拟合训练数据时,在保证$E_{in}$足够小的前提下
阅读全文
posted @ 2018-07-26 11:09 YongkangZhang
阅读(243)
评论(0)
推荐(0)
2018年7月25日
机器学习基石(林轩田)学习笔记:Lecture 14 & Lecture 15
摘要: Lecture 14:Regularization Regularized Hypothesis Set 当训练样本数不够多,而假设函数次数比较高时,很容易发生过拟合,正则化的目的就是希望让高维的假设函数退化成低维的假设函数 如上图,高维假设函数的参数里,高阶项对应的参数(w3,...,w10)就都
阅读全文
posted @ 2018-07-25 16:02 YongkangZhang
阅读(231)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
下一页
公告