会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
赌书香
博客园
首页
新随笔
联系
订阅
管理
2019年1月22日
MODEL COMPRESSION VIA DISTILLATION AND QUANTIZATION 论文笔记
摘要: 摘要 深度神经网络(DNN)继续取得重大进展,解决从图像分类到翻译或强化学习的任务。受到相当大关注的领域的一个方面是在资源受限的环境中有效地执行深度模型,例如移动或嵌入式设备。本文重点讨论了这个问题,并提出了两种新的压缩方法,它们共同利用大型网络称为“教师”的权重量化和蒸馏,进入压缩的“学生”网络。
阅读全文
posted @ 2019-01-22 16:39 赌书香
阅读(987)
评论(0)
推荐(0)
编辑
公告