会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
我的锅
stay hungry, stay foolish.
博客园
首页
新随笔
联系
管理
订阅
2019年11月28日
模型蒸馏(Distil)及mnist实践
摘要: 结论:蒸馏是个好方法。 模型压缩/蒸馏在论文《Model Compression》及《Distilling the Knowledge in a Neural Network》提及,下面介绍后者及使用keras测试mnist数据集。 蒸馏:使用小模型模拟大模型的泛性。 通常,我们训练mnist时,t
阅读全文
posted @ 2019-11-28 16:40 我的锅
阅读(3406)
评论(2)
推荐(0)
编辑
公告