摘要: 结论:蒸馏是个好方法。 模型压缩/蒸馏在论文《Model Compression》及《Distilling the Knowledge in a Neural Network》提及,下面介绍后者及使用keras测试mnist数据集。 蒸馏:使用小模型模拟大模型的泛性。 通常,我们训练mnist时,t 阅读全文
posted @ 2019-11-28 16:40 我的锅 阅读(3406) 评论(2) 推荐(0) 编辑