摘要: 摘要 模型平均可以提高算法的性能,但是计算量大且麻烦,难以部署给用户。《模型压缩》这篇论文中表明,知识可以从复杂的大型模型或由多个模型构成的集成模型中压缩并转移到一个小型模型中,本文基于这一观点做出了进一步研究:通过**知识蒸馏(knowledge distillation)**显著提高了转移后的小 阅读全文
posted @ 2022-06-22 13:05 李斯赛特 阅读(1090) 评论(0) 推荐(0) 编辑