2015年5月11日

正则化方法:L1和L2 regularization、数据集扩增、dropout

摘要: 本文是《Neural networks and deep learning》概览中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充)正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的... 阅读全文

posted @ 2015-05-11 09:47 moffis 阅读(145) 评论(0) 推荐(0) 编辑

交叉熵代价函数

摘要: 本文是《Neural networks and deep learning》概览中第三章的一部分,讲machine learning算法中用得很多的交叉熵代价函数。1.从方差代价函数说起代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其... 阅读全文

posted @ 2015-05-11 09:35 moffis 阅读(213) 评论(0) 推荐(0) 编辑

导航