摘要: Lecture 15: Matrix Factorization Linear Network Hypothesis Recommender System Revisited 在推荐系统问题中,我们有若干原始的训练数据,训练样本的输入$\tilde x_n$是用户ID,$y_n=r_{nm}$,即I 阅读全文
posted @ 2018-07-31 10:56 YongkangZhang 阅读(194) 评论(0) 推荐(0) 编辑
摘要: Lecture 13: Deep Learning Autoencoder autoencoder是深度学习中一种常用的初始化权重的方法。 如上图所示,首先,从第0~1层的权重开始,一层层用autoencoder初始化每两层之间的权重,然后再使用训练集对整个网络进行训练 autoencoder是如何 阅读全文
posted @ 2018-07-30 19:48 YongkangZhang 阅读(285) 评论(0) 推荐(0) 编辑
摘要: Lecture 11: Gradient Boosted Decision Tree Adaptive Boosted Decision Tree From Random Forest to AdaBoost DTree 在随机森林中,我们通过特殊的bootstrap方法产生了T个$\tilde{\ 阅读全文
posted @ 2018-07-30 11:17 YongkangZhang 阅读(225) 评论(0) 推荐(0) 编辑
摘要: Lecture 9: Decision Tree Decision Tree Hypothesis 之前介绍的uniform blending和linear blending等,$G$中每个假设函数$g_t$前的权重都是一个常数$\alpha_t$($G(x)=\sum_{t=1}^T \alpha 阅读全文
posted @ 2018-07-29 11:03 YongkangZhang 阅读(623) 评论(0) 推荐(0) 编辑
摘要: Lecture 7:Blending and Bagging Motivation of Aggregation 现在给出T个假设函数$g_1,\cdots,g_T$,我们希望充分利用它们,得到一个更好的假设函数$G$,我们有几种方法: 1、用交叉验证的方法从T个g里选$E_{val}$最小的:$G 阅读全文
posted @ 2018-07-28 16:29 YongkangZhang 阅读(242) 评论(0) 推荐(0) 编辑
摘要: Lecture 5:Kernel Logistic Regression Soft Margin SVM as Regularized Model 我们首先回顾Soft Margin SVM的优化目标 在得到的最优解$(b,w,\xi)$中,当$(x_n,y_n)$没有越过margin自己这一方的边 阅读全文
posted @ 2018-07-27 20:22 YongkangZhang 阅读(304) 评论(0) 推荐(0) 编辑
摘要: Lecture 3:Kernel Support Vector Machine Kernel Trick 回顾Lecture 2中SVM的拉格朗日对偶问题: 对偶问题中,有n个变量需要求解,n个不等式约束条件和1个等式约束条件 整个问题只有在计算$q_{n,m}$时与$\tilde d$有联系:计算 阅读全文
posted @ 2018-07-27 13:30 YongkangZhang 阅读(229) 评论(0) 推荐(0) 编辑
摘要: Lecture 1:Linear Support Vector Machine Large Margin Separating Hyperplane 在二分类问题中,假设现在我们有大小为n的线性可分的训练集$\mathcal D$ 在PLA/口袋算法中,对于上图中的三种假设函数$h=\mathrm{ 阅读全文
posted @ 2018-07-26 15:36 YongkangZhang 阅读(300) 评论(0) 推荐(0) 编辑
摘要: Lecture 16:Three Learning Principles Occam's Razor 奥卡姆剃刀原则:如无必要,勿增实体(entities must not be multiplied beyond necessity) 意思就是,拟合训练数据时,在保证$E_{in}$足够小的前提下 阅读全文
posted @ 2018-07-26 11:09 YongkangZhang 阅读(177) 评论(0) 推荐(0) 编辑
摘要: Lecture 14:Regularization Regularized Hypothesis Set 当训练样本数不够多,而假设函数次数比较高时,很容易发生过拟合,正则化的目的就是希望让高维的假设函数退化成低维的假设函数 如上图,高维假设函数的参数里,高阶项对应的参数(w3,...,w10)就都 阅读全文
posted @ 2018-07-25 16:02 YongkangZhang 阅读(227) 评论(0) 推荐(0) 编辑