不积跬步,无以至千里;不积小流,无以成江海。——荀子

  博客园  :: 首页  :: 新随笔  :: 联系 :: 订阅 订阅  :: 管理

2018年5月3日

摘要: 除了L2正则化和dropout正则化,还有几种方法可以减少神经网络中的过拟合。 1. 数据增强 假设你正在训练一个猫咪图片的分类器,如果你想通过扩增数据集(即收集更多的数据)来解决过拟合,这种方法是可行的,但是扩增训练数据代价高,而且有时候我们很难收集到更多的数据。但是我们可以通过添加这类图片来增加 阅读全文
posted @ 2018-05-03 15:30 hejunlin 阅读(267) 评论(0) 推荐(0) 编辑