摘要: 问题引入 下面的三个超平面都起到分类的效果,哪个最好? 答案显然是第三个。为什么? 直觉上,如果现在我们有个测试点,非常靠近右下角的那个红叉叉,也就是说这个点的特征与那个红叉叉非常接近,这时候,我们希望我们的分类器能够将这个测试点划分为与红叉叉相同的类。 也就是说,我们希望,找到的超平面能够远离所有 阅读全文
posted @ 2017-07-02 20:01 DianeSoHungry 阅读(759) 评论(0) 推荐(0) 编辑
摘要: 按输出空间分 二元分类问题(binary classification最核心) 回归问题(最核心) 多元分类问题(multiclass classification) 结构学习问题(structured learning problem,巨大的多元分类问题,structure=hyperclass, 阅读全文
posted @ 2017-07-01 02:44 DianeSoHungry 阅读(186) 评论(0) 推荐(0) 编辑
摘要: 全称 perceptron learning algrithm 用武之地 二值分类问题,资料线性可分 算法核心(以二维平面为例) 找到一条直线WTX=0,一边全为+1,另一边全为-1。找到了这条线(即,向量W)就得到了分类器。 如何找到这条线? 每次选取分类出错的样本点,迭代执行:Wt+1T=WtT 阅读全文
posted @ 2017-06-30 18:36 DianeSoHungry 阅读(621) 评论(0) 推荐(0) 编辑
摘要: 线性回归的缺陷: 创建模型是需要拟合所有的样本(除了局部加权线性回归),当数据特征多且关系复杂时,显得太笨拙 树回归: 将数据集分成多分易建模的数据,然后在这些易于建模的小数据集上利用线性回归建模。树回归采用的是二元划分法,所以只可能产生二叉树。 CART算法 全称:classification a 阅读全文
posted @ 2017-06-30 01:27 DianeSoHungry 阅读(623) 评论(0) 推荐(0) 编辑
摘要: 本章介绍了不同场景下使用的线性回归方法 一般情况:简单的线性回归 欠拟合:局部加权线性回归 特征数大于样本数:岭回归 或 lasso法 最后引出交叉验证,用来定量地找到最佳参数值 阅读全文
posted @ 2017-06-29 02:14 DianeSoHungry 阅读(1034) 评论(0) 推荐(0) 编辑
摘要: 笔记见备注 阅读全文
posted @ 2017-06-28 03:29 DianeSoHungry 阅读(446) 评论(0) 推荐(0) 编辑
摘要: 书上没有给具体的逻辑回归的课程,就直接上了代码,这很不好! 可以参考ng的课程,或者看这篇博文:http://blog.csdn.net/wlmnzf/article/details/72855610?utm_source=itdadao 过程还是比较浅显易懂的,就没怎么备注了。 阅读全文
posted @ 2017-06-26 23:44 DianeSoHungry 阅读(489) 评论(0) 推荐(0) 编辑
摘要: 闲来无事最近复习了一下ID3决策树算法,并凭着理解用pandas实现了一遍,加了些自己的理解(链接如下)。相比本篇博文,更简明清晰,更适合复习用。 https://github.com/DianeSoHungry/ShallowMachineLearningCodeItOut/blob/master 阅读全文
posted @ 2017-06-22 22:50 DianeSoHungry 阅读(344) 评论(0) 推荐(0) 编辑
摘要: 一开始.py文件中的函数名大小写错了,但是在终端是对的,报错: 'module' object has no attribute '某函数名' 后来就去修改.py文件。结果重新import该.py文件。依然报错,报错信息一模一样。 回去.py文件看了半天还是没发现任何为题,而且这个文件里的别的函数都 阅读全文
posted @ 2017-06-22 15:06 DianeSoHungry 阅读(1391) 评论(0) 推荐(0) 编辑
摘要: 闲来无事最近复习了一下ID3决策树算法,并凭着理解用pandas实现了一遍。对pandas更熟悉的朋友可供参考(链接如下)。相比本篇博文,更简明清晰,更适合复习用。 https://github.com/DianeSoHungry/ShallowMachineLearningCodeItOut/bl 阅读全文
posted @ 2017-06-21 13:29 DianeSoHungry 阅读(2918) 评论(0) 推荐(0) 编辑