摘要: 如果只想得到某种概率,而不是简单的分类,那么该如何做呢?在误差衡量问题上,如何选取误差函数这段很有意思。 接下来是如何最小化Ein,由于Ein是可凸优化的,所以采用的是梯度下降法:只要达到谷底,就找到了最优解。与PLA对比发现, logistic regression的梯度下降其实也是调整错分的w( 阅读全文
posted @ 2015-06-25 21:18 牧马人夏峥 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 之前一直在讲机器为什么能够学习,从这节课开始讲一些基本的机器学习算法,也就是机器如何学习。这节课讲的是线性回归,从使Ein最小化出发来,介绍了 Hat Matrix,要理解其中的几何意义。最后对比了linear regression 和 binary classification,并说明了linea... 阅读全文
posted @ 2015-06-25 18:26 牧马人夏峥 阅读(215) 评论(0) 推荐(0) 编辑
摘要: 这是在百度文库里看到的:http://wenku.baidu.com/link?url=E_m_ERgoqpq8n16iuHki0HYdY7uknjBRmQmlpec45KMDv4S6NybGTPW7tUvkzgXZDY5Ydee0mdXTJLFmtwtnLgs-oTuews4ua2iwdXo7ik... 阅读全文
posted @ 2015-06-25 10:04 牧马人夏峥 阅读(8036) 评论(0) 推荐(1) 编辑
摘要: 这一节主要讲的是,加入noise后,前面推导的一系列结论仍然有效。参考:http://www.cnblogs.com/HappyAngel/p/3653093.html 阅读全文
posted @ 2015-06-25 09:26 牧马人夏峥 阅读(151) 评论(0) 推荐(0) 编辑