会员
周边
捐助
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
A1A1AA
公告
日历
导航
博客园
首页
新随笔
新文章
联系
订阅
管理
2020年11月17日
CROSS-MODAL KNOWLEDGE DISTILLATION FOR ACTION RECOGNITION(2019 IEEE International Conference on Image Processing (ICIP))
摘要: ##1.介绍 ## 问题:完全监督训练网络有效,虽然数据集的收集不是问题,但是数据集的标注(定label)是一个比较繁琐的事情。 本文就利用知识蒸馏方法来解决在没有类标签的情况下,如何利用已经训练好的一个模态的网络信息,来训练另外一个模态的网络。 这篇论文主要是利用知识蒸馏的方法进行跨模态蒸馏,经过
阅读全文
posted @ 2020-11-17 16:11 A1A1AA
阅读(343)
评论(0)
推荐(0)
编辑
Copyright © 2024 A1A1AA
Powered by .NET 8.0 on Kubernetes