2019年5月25日
摘要: 我的学习总结:这节课主要介绍了非线性分类模型,通过非线性变换,将非线性模型映射到另一个空间,转换为线性模型,再来进行线性分类。本节课完整学习了非线性变换的整体流程,以及非线性变换可能会带来的一些问题:时间复杂度和空间复杂度的增加。最后介绍了在要付出代价的情况下,使用非线性变换的最安全的做法,尽可能使用简单的模型,而不是模型越复杂越好。总之,本节课的学习主要围绕非线性分类模型,个人来说是个难点,一定要多下功夫! 阅读全文
posted @ 2019-05-25 21:45 独家记忆。 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 我的学习总结:本本节课主要学习了分类问题的三种线性模型:linear classification(线性分类)、linear regression(线性回归)和logistic regression(逻辑回归)。首先比较了这三种模型,然后介绍了比梯度下降算法更加高效的SGD算法来进行logistic regression分析(这一块没有掌握好)。最后讲解了两种多分类方法,一种是OVA,另一种是OVO。(两种分类方法好好理解以下,可以带例子去理解概念) 阅读全文
posted @ 2019-05-25 17:55 独家记忆。 阅读(226) 评论(0) 推荐(0) 编辑
摘要: 我的学习总结:本节课继续学习了回归的问题,线性回归重点是求解了w 的解析方案(通过pseudo-inverse 求解w)。而这节课学习了另一个很重要的方法,逻辑斯蒂回归(logistic regression)。里面涉及到的数学意义,需要自己多钻研,涉及到回归优化,梯度问题(不太懂)等等,需要多下功夫好好去理解。 阅读全文
posted @ 2019-05-25 14:46 独家记忆。 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 我的学习总结:本节课本学习了机器学习最常见的一种算法:Linear Regression(线性回归)。这是学习《机器学习基石》中学到的第二种算法,第一种是PLA算法。先学习了线性回归问题,再学习的线性回归算法,最后有个泛化问题(数学推导那块没太懂)。所以本节课特别重要,希望通过本节课学习对线性回归有自己初步的了解。 阅读全文
posted @ 2019-05-25 12:12 独家记忆。 阅读(197) 评论(0) 推荐(0) 编辑
摘要: 我的学习总结:本节课主要学习了数据集有Noise的情况下,是否能够进行机器学习,并且介绍了假设空间H下演算法A的Error估计。本节课是对上一节知识的拓展和延伸,涉及到一点数学推导,不过基本上多为概述性的东西,相对起来比较好理解。 阅读全文
posted @ 2019-05-25 10:09 独家记忆。 阅读(167) 评论(0) 推荐(0) 编辑