会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
nowgood
梅花香自苦寒来
博客园
首页
联系
管理
2019年5月26日
Distilling the Knowledge in a Neural Network
摘要:
阅读全文
posted @ 2019-05-26 20:10 nowgood
阅读(1876)
评论(0)
推荐(1)
编辑
Do Deep Nets Really Need to be Deep?
摘要:
这里有意思的一点就是, 这里提到如果有更多与原始训练集相似的未标记的数据可用, 即使老师模型的性能不变, 随着数据的增多, 学生模型的性能也会提高, 可以试一下.
阅读全文
posted @ 2019-05-26 18:06 nowgood
阅读(1657)
评论(0)
推荐(0)
编辑
公告