摘要: 机器学习基石HOW BETTER部分(2) 标签:机器学习基石 第十四章 minimizes augmented error, where the added regularizer effectively limits model complexity 主要思想:将假设函数从高次多项式降至低次。 阅读全文
posted @ 2015-12-18 11:07 huang22 阅读(262) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW BETTER部分(4) 标签:机器学习基石 第十六章 奥卡姆剃刀(Occam’s Razor) 哲学意义:剃掉过分的解释。 机器学习:对训练数据最简单的解释就是最好的。 The simplest model that fits the data is also the most 阅读全文
posted @ 2015-12-18 11:02 huang22 阅读(192) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW BETTER部分(3) 标签:机器学习基石 第十五章 (crossly) reserve validation data to simulate testing procedure for model selection 模型选择问题 做二元分类,可以有的选择真的好多啊。每一种的 阅读全文
posted @ 2015-12-18 11:01 huang22 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW BETTER部分(1) 标签:机器学习基石 第十三章 overfitting happens with excessive power, stochastic/deterministic noise, and limited data underfitting:EIN和Eout都 阅读全文
posted @ 2015-12-18 11:00 huang22 阅读(299) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW部分(4) 标签:机器学习基石 第十二章 nonlinear via nonlinear feature transform ϕ plus linear with price of model complexity 前面的分析都是基于“线性假设“,它的优点是实际中简单有效,而且理论 阅读全文
posted @ 2015-12-18 10:59 huang22 阅读(235) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW部分(3) 标签:机器学习基石 第十一章 binary classification via (logistic) regression; multiclass via OVA/OVO decomposition 所有的回归算法,经过一些修改,就可以用来做分类。但是分类算法无论怎么 阅读全文
posted @ 2015-12-18 10:59 huang22 阅读(259) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW部分(2) 标签:机器学习基石 第十章 gradient descent on cross-entropy error to get good logistic hypothesis 从方程的形式、误差的衡量方式、如何最小化Ein的角度出发 之前提过的二元分类器如PLA,其目标函数 阅读全文
posted @ 2015-12-18 10:58 huang22 阅读(168) 评论(0) 推荐(0) 编辑
摘要: 机器学习基石HOW部分(1) 标签:机器学习基石 第九章 analytic solution wLIN=X†y with linear regression hypotheses and squared error 从方程的形式、误差的衡量方式、如何最小化Ein的角度出发,并简单分析了Hat Mat 阅读全文
posted @ 2015-12-18 10:56 huang22 阅读(287) 评论(0) 推荐(0) 编辑