会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
赌书香
博客园
首页
新随笔
联系
订阅
管理
2019年1月19日
DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN CODING 论文笔记
摘要: 摘要 神经网络既是计算密集型又是内存密集型,使得它们难以部署在具有有限硬件资源的嵌入式系统上。为了解决这个限制,我们引入了“深度压缩”,一个三阶段流水线:修剪,训练量化和霍夫曼编码,它们协同工作以减少神经网络的存储需求,在不影响他们的准确性的基础上能够压缩35到49倍。我们的方法首先通过仅学习重要的
阅读全文
posted @ 2019-01-19 16:35 赌书香
阅读(1171)
评论(0)
推荐(0)
编辑
公告