论文笔记——Deep Model Compression Distilling Knowledge from Noisy Teachers

论文地址:https://arxiv.org/abs/1610.09650

主要思想

这篇文章就是用teacher-student模型,用一个teacher模型来训练一个student模型,同时对teacher模型的输出结果加以噪声,然后来模拟多个teacher,这也是一种正则化的方法。

1. teacher输出的结果加噪声以后,然后和student的输出结果计算L2 loss,作为student网络的反馈。

2. 加噪声

3. 计算L2 loss

4. 反向传播,更新参数

5. 算法过程

  • 注意:加噪声的时候对输入进行了采样,不然直接全加也太暴力了吧。

等价于基于噪声的回归




实验结果

1. 对比了不同噪声比例对结果的影响,其实就是调参的过程。

2. 比较了学生加噪声和教师加噪声,结果是教师加噪声效果更加明显。

3. 比较了教师加噪声和一般的正则化操作(dropout)

总结

本文想法比较简单,就是给teacher输出结果加噪声,美曰其名,learn from multi teachers.

posted @ 2017-10-12 00:22  清水汪汪  阅读(1908)  评论(0编辑  收藏  举报