摘要: https://mp.weixin.qq.com/s/C5ZDYKPdHazR2bR9I9KFjQ 在之前的文章中,我们介绍过VIT(Vision Transformer) ,它将NLP中常用的Transformer架构用于图像分类的预训练任务上,取得了比肩ResNet的效果,成功证明了Transf 阅读全文
posted @ 2023-11-23 14:06 水木清扬 阅读(562) 评论(0) 推荐(0) 编辑