会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
信
旅途日志
博客园
首页
新随笔
联系
订阅
管理
2023年10月18日
论文阅读:Knowledge Distillation via the Target-aware Transformer
摘要: 摘要 Knowledge distillation becomes a de facto standard to improve the performance of small neural networks. 知识蒸馏成为提高小型神经网络性能的事实上的标准。 Most of the previo
阅读全文
posted @ 2023-10-18 19:38 信海
阅读(89)
评论(0)
推荐(0)
编辑
公告