01 2019 档案

摘要:摘要 深度神经网络(DNN)继续取得重大进展,解决从图像分类到翻译或强化学习的任务。受到相当大关注的领域的一个方面是在资源受限的环境中有效地执行深度模型,例如移动或嵌入式设备。本文重点讨论了这个问题,并提出了两种新的压缩方法,它们共同利用大型网络称为“教师”的权重量化和蒸馏,进入压缩的“学生”网络。 阅读全文
posted @ 2019-01-22 16:39 赌书香 阅读(1089) 评论(0) 推荐(0)
摘要:摘要 神经网络既是计算密集型又是内存密集型,使得它们难以部署在具有有限硬件资源的嵌入式系统上。为了解决这个限制,我们引入了“深度压缩”,一个三阶段流水线:修剪,训练量化和霍夫曼编码,它们协同工作以减少神经网络的存储需求,在不影响他们的准确性的基础上能够压缩35到49倍。我们的方法首先通过仅学习重要的 阅读全文
posted @ 2019-01-19 16:35 赌书香 阅读(1262) 评论(0) 推荐(0)
摘要:摘要 深度卷积神经网络(CNN)已成为最有前途的物体识别方法,近年来反复展示了图像分类和物体检测的破纪录结果。然而,非常深的CNN通常涉及具有数百万个参数的许多层,使得网络模型的存储非常大。这限制在资源有限的硬件上使用深度CNN,尤其是手机或其他嵌入式设备。在本文中,我们通过研究用于压缩CNN参数的 阅读全文
posted @ 2019-01-16 17:36 赌书香 阅读(850) 评论(0) 推荐(0)