随笔分类 -  Machine Learning

机器学习笔记
摘要:原文链接:https://www.cnblogs.com/wenyi1992/p/7685131.html 【基本流程】 分类决策树的核心思想就是在一个数据集中找到一个最优特征,然后从这个特征的选值中找一个最优候选值(这段话稍后解释),根据这个最优候选值将数据集分为两个子数据集,然后递归上述操作,直 阅读全文
posted @ 2018-03-28 22:34 ForTech 阅读(416) 评论(0) 推荐(0) 编辑
摘要:Fisher判别分析 阅读全文
posted @ 2018-03-13 13:43 ForTech 阅读(511) 评论(0) 推荐(0) 编辑
摘要:发展历程 应用现状 阅读全文
posted @ 2018-03-12 19:15 ForTech 阅读(177) 评论(0) 推荐(0) 编辑
摘要:基本形式 【引言:为什么学习线性模型】 线性模型(linear model)形式简单、易于建模,但却蕴含着机器学习中一些重要的基本思想。 许多功能更为强大的非线性模型(nonlinear model)可在线性模型的基础上通过引入层级结构或高级映射而得。 所以,首先学习线性模型是必要的。 阅读全文
posted @ 2018-03-12 14:46 ForTech 阅读(901) 评论(0) 推荐(0) 编辑
摘要:代价敏感错误率 代价曲线 阅读全文
posted @ 2018-03-12 13:51 ForTech 阅读(1824) 评论(0) 推荐(0) 编辑
摘要:ROC AUC 阅读全文
posted @ 2018-03-12 13:40 ForTech 阅读(214) 评论(0) 推荐(0) 编辑
摘要:【引入原因】 错误率和精度虽常用,但并不能满足所有任务需求。 什么任务需求呢?以西瓜问题为例,假定瓜农拉来一车西瓜,我们用训练好的模型对这些西瓜进行判别,显然,错误率衡量了有多少比例的瓜被判别错误, 但是,若我们关心的是“挑出的西瓜中有多少比例是好瓜”,或者“所有好瓜中有多少比例被挑了出来”, 那么 阅读全文
posted @ 2018-03-11 23:53 ForTech 阅读(1417) 评论(0) 推荐(0) 编辑
摘要:自助法 阅读全文
posted @ 2018-03-11 23:43 ForTech 阅读(524) 评论(0) 推荐(0) 编辑
摘要:留出法 阅读全文
posted @ 2018-03-11 23:42 ForTech 阅读(520) 评论(0) 推荐(0) 编辑
摘要:1.1引言 喧闹的教室突然变得鸦雀无声,没有抬头的你第一反应就是老板进了教室,赶紧就收起了手里的手机。 结果抬头一看,老板果真进来了;或者有时候抬头一看,什么也没有,大家哈哈一笑。 为什么?为什么你没抬头看就想到会是老板进来了? 因为你以前有过相同或者相似的经历,也就是“经验”。 所以你再一次经历的 阅读全文
posted @ 2018-03-11 22:51 ForTech 阅读(177) 评论(0) 推荐(0) 编辑
摘要:2.1经验误差与过拟合 定义:误差(error):学习器的实际预测输出与样本的真是输出之间的差异 定义:学习器在训练集上的误差称为“训练误差”(training error)或“经验误差”(empirical error); 在新样本上的误差称为“泛化误差”(generalization error 阅读全文
posted @ 2018-03-11 22:49 ForTech 阅读(281) 评论(0) 推荐(0) 编辑
摘要:Welcome Welcome to Machine Learning!(video) What is machine learning?You probably use it dozens of times a day without even knowing it.1.Each time you 阅读全文
posted @ 2018-02-28 01:03 ForTech 阅读(573) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示