会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
不说话的汤姆猫
博客园
首页
新随笔
联系
订阅
管理
2017年6月19日
正则化方法:L1和L2 regularization、数据集扩增、dropout(转)
摘要: ps:转的。当时主要是看到一个问题是L1 L2之间有何区别,当时对l1与l2的概念有些忘了,就百度了一下。看完这篇文章,看到那个对W减小,网络结构变得不那么复杂的解释之后,满脑子的6666 >把网络权重W看做为对上一层神经元的一个WX+B的线性函数模拟一个曲线就好。知乎大神真的多。 版权声明:本文为
阅读全文
posted @ 2017-06-19 23:27 不说话的汤姆猫
阅读(315)
评论(0)
推荐(0)
编辑
公告