摘要: 【AI框架核心技术】系列来啦!从入门到放弃! 【AI框架核心技术】这个系列,主要是跟大家一起探讨和学习人工智能、深度学习的计算机系统设计,而整个系统是围绕着我在工作之余所积累、梳理、构建关于AI框架的一些核心技术内容。 阅读全文
posted @ 2023-01-12 23:47 ZOMI酱酱 阅读(516) 评论(0) 推荐(0) 编辑
摘要: CLIP:多模态领域革命者 当前的内容是梳理《Transformer视觉系列遨游》系列过程中引申出来的。目前最近在AI作画这个领域 Transformer 火的一塌糊涂,AI画画效果从18年的 DeepDream[1] 噩梦中惊醒过来,开始从2022年 OpenAI 的 DALL·E 2[2] 引来 阅读全文
posted @ 2022-08-18 19:33 ZOMI酱酱 阅读(2948) 评论(0) 推荐(0) 编辑
摘要: Diffusion Models:生成扩散模型 当前的内容是梳理《Transformer视觉系列遨游》系列过程中引申出来的。目前最近在AI作画这个领域 Transformer 火的一塌糊涂,AI画画效果从18年的 DeepDream[1] 噩梦中惊醒过来,开始从2022年 OpenAI 的 DALL 阅读全文
posted @ 2022-08-04 00:30 ZOMI酱酱 阅读(9766) 评论(1) 推荐(1) 编辑
摘要: 【自动微分实现】反向OO实现自动微分(Pytroch核心机制) 写【自动微分】原理和实现系列文章,存粹是为了梳理在 MindSpore 当SE时候最核心的自动微分原理。网上看了很多文章,基本上都是很零散,当然Automatic Differentiation in Machine Learning: 阅读全文
posted @ 2022-07-31 13:41 ZOMI酱酱 阅读(222) 评论(0) 推荐(0) 编辑
摘要: MobileViT 结构上基本基于 MobileNet V2 而改进增加了 MobileViT block,但是同样能够实现一个不错的精度表现,文章实验部分大量的对比了 MobileViT 跟 CNN 和 ViT 模型的参数量和模型大小,不过值得一提的是在端侧除了模型大小以外,更加重视模型的性能,只能说这篇文章经典之处是开创了 CNN 融合 ViT 在端侧的研究。 阅读全文
posted @ 2022-07-22 16:51 ZOMI酱酱 阅读(989) 评论(0) 推荐(0) 编辑
摘要: 那现在!是否有可能结合 CNN 和 ViT 的优势,为移动视觉任务构建一个轻量级、低延迟的网络? 为此,作者提出了 MobileViT,一种用于移动设备的轻量级通用视觉Transformer。 阅读全文
posted @ 2022-07-21 00:09 ZOMI酱酱 阅读(501) 评论(0) 推荐(0) 编辑
摘要: DeiT 是一个全 Transformer 的架构。其核心是提出了针对 ViT 的教师-学生蒸馏训练策略,并提出了 token-based distillation 方法,使得 Transformer 在视觉领域训练得又快又好。 阅读全文
posted @ 2022-07-20 00:17 ZOMI酱酱 阅读(1384) 评论(0) 推荐(1) 编辑
摘要: 何凯明从 CVPR 2020 上发表的 MoCo V1(Momentum Contrast for Unsupervised Visual Representation Learning),到前几天挂在arxiv上面的 MoCo V3(An Empirical Study of Training Self-Supervised Visual Transformers),MoCo一共走过了三个版本。今天介绍 MoCo 系列第三版,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。 阅读全文
posted @ 2022-07-18 22:17 ZOMI酱酱 阅读(609) 评论(0) 推荐(0) 编辑
摘要: 何凯明从 CVPR 2020 上发表的 MoCo V1(Momentum Contrast for Unsupervised Visual Representation Learning),到前几天挂在arxiv上面的 MoCo V3(An Empirical Study of Training Self-Supervised Visual Transformers),MoCo一共走过了三个版本。今天介绍 MoCo 系列第二版 MoCo v2 就是在 SimCLR 发表后结合了 SimCLR 优点的图像自监督学习方法,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。 阅读全文
posted @ 2022-07-18 22:14 ZOMI酱酱 阅读(530) 评论(0) 推荐(0) 编辑
摘要: 何凯明从 CVPR 2020 上发表的 MoCo V1(Momentum Contrast for Unsupervised Visual Representation Learning),到前几天挂在arxiv上面的 MoCo V3(An Empirical Study of Training Self-Supervised Visual Transformers),MoCo一共走过了三个版本。今天介绍 MoCo 系列第一版 MoCo v1 就是在 SimCLR 发表前经典的图像自监督学习方法,MoCo v1 和 v2 是针对 CNN 设计的,而 MoCo v3 是针对 Transformer 结构设计的,反映了 MoCo 系列对视觉模型的普适性。 阅读全文
posted @ 2022-07-18 22:11 ZOMI酱酱 阅读(1127) 评论(0) 推荐(0) 编辑
点击右上角即可分享
微信分享提示