只有注册用户登录后才能阅读该文。 阅读全文
摘要:
这一节讲的是如何将线性不可分的情况转为非线性可分以及转换的代价。特征转换是机器学习的重点。最后得出重要的结论是,在做转换时,先从简单模型,再到复杂模型。参考:http://www.cnblogs.com/ymingjingr/p/4340977.html 阅读全文
摘要:
这一节讲线性模型,先将几种线性模型进行了对比,通过转换误差函数来将linear regression 和logistic regression 用于分类。 比较重要的是这种图,它解释了为何可以用Linear Regression或Logistic Regression来替代Linear Classi 阅读全文
摘要:
如果只想得到某种概率,而不是简单的分类,那么该如何做呢?在误差衡量问题上,如何选取误差函数这段很有意思。 接下来是如何最小化Ein,由于Ein是可凸优化的,所以采用的是梯度下降法:只要达到谷底,就找到了最优解。与PLA对比发现, logistic regression的梯度下降其实也是调整错分的w( 阅读全文
摘要:
之前一直在讲机器为什么能够学习,从这节课开始讲一些基本的机器学习算法,也就是机器如何学习。这节课讲的是线性回归,从使Ein最小化出发来,介绍了 Hat Matrix,要理解其中的几何意义。最后对比了linear regression 和 binary classification,并说明了linea... 阅读全文
摘要:
这是在百度文库里看到的:http://wenku.baidu.com/link?url=E_m_ERgoqpq8n16iuHki0HYdY7uknjBRmQmlpec45KMDv4S6NybGTPW7tUvkzgXZDY5Ydee0mdXTJLFmtwtnLgs-oTuews4ua2iwdXo7ik... 阅读全文
摘要:
这一节主要讲的是,加入noise后,前面推导的一系列结论仍然有效。参考:http://www.cnblogs.com/HappyAngel/p/3653093.html 阅读全文
摘要:
这位博主总结了比较新的tracking方面的资源:http://blog.csdn.net/minstyrain/article/details/38640541 http://xilinx.eetrend.com/article/8919 ... 阅读全文
摘要:
这节课同样非常的抽象,主要讲的是VC Dimension,这节课最重要的是这幅图:参考:http://www.cnblogs.com/HappyAngel/p/3633989.html 阅读全文
摘要:
这节课听起来非常的抽象,深感自己的智商余额不足,也说明台大的这门机器学习课程理论化程度很高。还是看看这位博主的吧,总起的还不错,看后总算能明白点了:http://www.cnblogs.com/HappyAngel/p/3622333.html 阅读全文