会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
臭咸鱼
祝你天天开心啊!
首页
联系
管理
2021年5月4日
李宏毅机器学习课程笔记-13.2模型压缩之知识蒸馏
摘要: 知识蒸馏就是Knowledge Distillation。 Knowledge Distillation:https://arxiv.org/abs/1503.02531 Do Deep Nets Really Need to be Deep?:https://arxiv.org/abs/1312.
阅读全文
posted @ 2021-05-04 09:52 臭咸鱼
阅读(234)
评论(0)
推荐(0)
编辑
公告