摘要: 本文主要内容来自周志华《机器学习》和Peter Flach 《机器学习》 在 "k 近邻算法1" 、 "k 近邻算法2" , "k 近邻算法3" 三篇文章从实践上学习了k 近邻算法, 本文从理论上学习k 近邻算法。 k 近邻(k Nearest Neighbor, 简称kNN)算法是一种常用的监督学 阅读全文
posted @ 2018-04-23 16:48 Liupeng_Wang 阅读(7719) 评论(0) 推荐(1) 编辑
摘要: 本节主要内容来自Peter Harrington的《Machine Learning in Action》的中文版本《机器学习实战》 本文中 "数据" 和 "代码" 示例3 本例中我们将构造一个使用k 近邻分类器的手写识别系统。为了降低难度,该分类器只识别数字0到9。 手写识别系统 1. 收集数据: 阅读全文
posted @ 2018-04-20 22:51 Liupeng_Wang 阅读(573) 评论(0) 推荐(0) 编辑
摘要: 本文主要内容来自Peter Harrington的《Machine Learning in Action》的中文版本《机器学习实战》 本文中数据和代码在 "这里" 示例2 任务——海伦一直在约会网站上寻找合适的约会对象,但网站推荐的约会对象并不都合她心意。她把曾约会过的对象分为三个类型:毫无魅力、魅 阅读全文
posted @ 2018-04-18 23:05 Liupeng_Wang 阅读(537) 评论(0) 推荐(0) 编辑
摘要: 本节主要内容来自Peter Harrington的《Machine Learning in Action》的中文版本《机器学习实战》 本文中 "代码" k 近邻算法的基本原理 k 近邻(k Nearest Neighbors,kNN)算法,采用测量不同特征值之间的距离方法进行分类 + 优点:精度高、 阅读全文
posted @ 2018-04-17 12:05 Liupeng_Wang 阅读(756) 评论(0) 推荐(0) 编辑
摘要: 本文主要内容来自周志华《机器学习》 本文中 "代码" 问题: 对于一个只包含$m$个样例的数据集$D=\{(x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)$,如何适当处理,从$D$中产生训练集$S$和测试集$T$? 下面介绍三种常见的做法: + 留出法 + 交叉验证法 + 自 阅读全文
posted @ 2018-04-13 21:39 Liupeng_Wang 阅读(27206) 评论(0) 推荐(1) 编辑
摘要: 为了从实用角度了解机器学习框架,我专门学习Abhishek Thakur发表在Kaggle上的热门文章 "Approaching (Almost) Any Machine Learning Problem" ,并参考一篇翻译文章 "【干货】Kaggle热门 | 用一个框架解决所有机器学习难题" 和一 阅读全文
posted @ 2018-04-12 15:16 Liupeng_Wang 阅读(555) 评论(0) 推荐(0) 编辑
摘要: 同大头一起学习深度学习,他推荐采用环境Anaconda+PyCharm Anaconda Anaconda指的是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。 下载Anaconda 官方下载链接: https://www.anaconda.com/do 阅读全文
posted @ 2018-04-11 22:27 Liupeng_Wang 阅读(1531) 评论(0) 推荐(0) 编辑