12 2022 档案

Attention:何为注意力机制?
摘要:​ 本文来自公众号“AI大道理” 人类利用有限的注意力资源从大量信息中快速筛选出高价值信息,这是人类在长期进化中形成的一种生存机制,人类视觉注意力机制极大地提高了视觉信息处理的效率与准确性。 attention从注意力模型的命名方式看,借鉴了人类的注意力机制。 ​ 编辑 1、从机器翻译说起 Seq2 阅读全文

posted @ 2022-12-28 21:49 AI大道理 阅读(642) 评论(0) 推荐(0) 编辑

RepOpt-VGG:梯度参数化的开创
摘要:​ 本文来自公众号“AI大道理” ​ YOLov6的量化问题: yolov6在结构中大量使用了重参数结构,导致数据分布过差,PTQ精度急剧下降。另外,重参数化结构网络无法直接使用QAT进行微调提升量化性能。 因为Deploy部署的模型无BN,不利于训练;Train模式进行QAT之后无法进行分支融合。 阅读全文

posted @ 2022-12-20 21:46 AI大道理 阅读(177) 评论(0) 推荐(0) 编辑

RepVGG:一个结构重参数化网络
摘要:​ 本文来自公众号“AI大道理” ResNet、DenseNet 等复杂的多分支网络可以增强模型的表征能力,使得训练效果更好。但是多分支的结构在推理的时候效率严重不足。 看起来二则不可兼得。 能否两全其美? RepVGG通过结构重参数化的方法,在训练的时候使用多分支结构,而在推理的时候多分支结构融合 阅读全文

posted @ 2022-12-17 11:09 AI大道理 阅读(1029) 评论(0) 推荐(0) 编辑

导航