会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
durian
durian is tasty
博客园
首页
新随笔
联系
订阅
管理
2022年6月22日
【论文笔记】(知识蒸馏)Distilling the Knowledge in a Neural Network
摘要: 摘要 模型平均可以提高算法的性能,但是计算量大且麻烦,难以部署给用户。《模型压缩》这篇论文中表明,知识可以从复杂的大型模型或由多个模型构成的集成模型中压缩并转移到一个小型模型中,本文基于这一观点做出了进一步研究:通过**知识蒸馏(knowledge distillation)**显著提高了转移后的小
阅读全文
posted @ 2022-06-22 13:05 李斯赛特
阅读(1199)
评论(0)
推荐(0)
编辑
公告