02 2025 档案

摘要:ViT, Transformer架构出圈到cvVision Transformer(ViT)通过采用自注意力机制处理图像块,革新了图像识别方法,展现了在大规模数据集上超越传统卷积神经网络的潜力。 阅读全文
posted @ 2025-02-20 21:56 TfiyuenLau 阅读(49) 评论(0) 推荐(0) 编辑
摘要:CNN和RNN的颠覆者?Transformer模型【论文精读随笔】transformer是一种基于自注意力机制的深度神经网络模型,通过并行处理和长距离依赖捕捉,显著提升序列建模效率。其多头注意力设计增强特征提取能力,位置编码保留序列顺序信息。在机器翻译、NLP等领域表现卓越,并广泛扩展至视觉、语音等多模态任务。 阅读全文
posted @ 2025-02-19 00:13 TfiyuenLau 阅读(40) 评论(0) 推荐(0) 编辑
摘要:撑起计算机视觉半边天的ResNet【论文精读随笔】ResNet(残差网络)通过引入残差学习框架,解决了深度神经网络中的退化问题,使得训练数百层的网络成为可能。通过残差块的结构化设计,ResNet在ImageNet和CIFAR-10数据集上取得了显著性能提升,并推动了计算机视觉领域的范式转变。 阅读全文
posted @ 2025-02-15 21:37 TfiyuenLau 阅读(47) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示