摘要: 前言: 这节课来学习下Deep learning领域比较出名的一类算法——sparse autoencoder,即稀疏模式的自动编码。我们知道,deep learning也叫做unsupervised learning,所以这里的sparse autoencoder也应是无监督的。按照前面的博文:D 阅读全文
posted @ 2016-03-23 13:01 xsc906476903 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 前面的文章已经介绍过了2种经典的机器学习算法:线性回归和logistic回归,并且在后面的练习中也能够感觉到这2种方法在一些问题的求解中能够取得很好的效果。现在开始来看看另一种机器学习算法——神经网络。线性回归或者logistic回归问题理论上不是可以解决所有的回归和分类问题么,那么为什么还有其它各 阅读全文
posted @ 2016-03-23 12:59 xsc906476903 阅读(235) 评论(0) 推荐(0) 编辑
摘要: 前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数。参考的网页资料为:http://opencl 阅读全文
posted @ 2016-03-23 12:58 xsc906476903 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 前言: 本节主要是练习regularization项的使用原则。因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。因此在模型的损失函数中,需要对模型的参数进行“惩罚”,这样的话这些参数就不会太大,而越小的参数说明模型越简单,越简单的模型则越 阅读全文
posted @ 2016-03-23 12:57 xsc906476903 阅读(107) 评论(0) 推荐(0) 编辑
摘要: 前言: 本节来练习下logistic regression相关内容,参考的资料为网页:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex4/ex4.htm 阅读全文
posted @ 2016-03-23 12:57 xsc906476903 阅读(121) 评论(0) 推荐(0) 编辑