摘要: # 前言 本文为深度学习和目标检测实践者提供了一份关于**SPP(空间金字塔池化)** 及其高效版本**SPPF模块**的详细解析。内容从模块的**设计动机**出发,深入剖析了二者在**多尺度特征提取**方式上的根本区别:SPP采用并行多核池化,而SPPF通过串联小核池化实现近似的感受野,从而**显著提升计算效率**。文章通过清晰的**结构图解**、**感受野计算演示**和**完整的代码分析* 阅读全文
posted @ 2026-03-22 21:19 魔改工程师 阅读(2) 评论(0) 推荐(0)
摘要: # 前言 本文为深度学习和YOLO系列的初学者提供了一份关于**YOLOv11核心模块C3k2**的详细解析。内容从**基础概念**(如卷积、通道、Bottleneck)讲起,逐步深入到C3k2模块的**两种工作模式**(简单模式c3k=False与复杂模式c3k=True)、**参数配置详解**及其**源码实现**。通过生动的比喻(如将模块比作“工厂生产线”)和清晰的代码注释,帮助读者直观理 阅读全文
posted @ 2026-03-22 21:17 魔改工程师 阅读(3) 评论(0) 推荐(0)
摘要: # 前言 本文为深度学习和YOLO系列的初学者提供了一份关于**YOLOv11中最基础、最核心的Conv/CBS模块**的详细解析。Conv/CBS模块是YOLOv11网络的“基础积木”,由**Conv2d(卷积层)、BatchNorm2d(批量归一化层)和SiLU(激活函数)** 三部分组成。文章从模块的**源码结构**入手,逐步深入讲解了8个初始化参数的详细含义、各组成部分(卷积、BN、S 阅读全文
posted @ 2026-03-22 21:14 魔改工程师 阅读(5) 评论(0) 推荐(0)
摘要: # 前言 本文对YOLOv11目标检测模型中的核心创新模块——**C2PSA**进行了深入的源码级解析。C2PSA通过引入**位置敏感注意力机制**,有效增强了模型对空间关键信息的捕捉能力,从而提升检测精度,尤其在复杂场景和小目标检测中表现显著。文章详细剖析了C2PSA及其子模块PSABlock、Attention的**完整源码结构、前向传播流程与关键参数**,并结合YAML配置文件实例,解释 阅读全文
posted @ 2026-03-22 21:14 魔改工程师 阅读(4) 评论(0) 推荐(0)
摘要: 本文介绍了目标检测方法Hyper \- YOLO及其核心模块在YOLOv11中的结合应用。为克服传统YOLO模型颈部设计局限,提出超图计算赋能语义收集与散射(HGCSCS)框架,构建超图捕捉高阶相关性;骨干网络引入混合聚合网络(MANet)增强特征提取;颈部采用基于超图的跨层和跨位置表示网络(HyperC2Net),实现多尺度复杂交互。我们将MANet和HyperComputeModule集成进Y 阅读全文
posted @ 2026-03-16 21:28 魔改工程师 阅读(12) 评论(0) 推荐(0)
摘要: 本文介绍了轻量级自调制特征聚合网络SMFANet及其核心模块SMFA在YOLOv11中的结合应用。为解决基于Transformer的图像恢复方法计算开销大、捕获局部细节能力弱的问题,提出SMFA模块,通过EASA分支建模非局部信息,LDE分支捕获局部细节,还提出PCFN精炼特征。我们将SMFA集成进YOLOv11,实验表明,SMFANet系列在重建性能与计算效率上取得更佳平衡,改进后的YOLOv1 阅读全文
posted @ 2026-03-16 21:27 魔改工程师 阅读(5) 评论(0) 推荐(0)
摘要: 本文介绍了轻量级卷积神经网络RepViT及其核心模块RepViTBlock在YOLOv11中的结合应用。RepViT通过融合轻量级ViTs的高效架构设计,对轻量级CNN进行“现代化”改造,采用结构重参数化技术,其核心的RepViT Block分离Token Mixer和Channel Mixer,提高了空间和通道信息利用效率。我们将RepViTBlock集成进YOLOv11,实验表明,RepViT 阅读全文
posted @ 2026-03-16 21:25 魔改工程师 阅读(11) 评论(0) 推荐(0)
摘要: 本文介绍了金字塔稀疏 Transformer(PST)与 YOLOv11 的结合。主流基于注意力的特征融合方法计算复杂度高、实现难度大,作者提出 PST 模块,融合粗到细令牌选择与共享注意力参数机制,在保留空间细节的同时降低计算量。该模块通过层级化注意力机制、动态令牌选择与参数共享,实现高效多尺度特征融合 > **文章目录: [YOLOv11改进大全:卷积层、轻量化、注意力机制、损失函数、Back 阅读全文
posted @ 2026-03-16 21:23 魔改工程师 阅读(4) 评论(0) 推荐(0)
摘要: # 前言 本文介绍了金字塔稀疏 Transformer(PST)与 YOLOv11 的结合。主流基于注意力的特征融合方法计算复杂度高、实现难度大,作者提出 PST 模块,融合粗到细令牌选择与共享注意力参数机制,在保留空间细节的同时降低计算量。该模块通过层级化注意力机制、动态令牌选择与参数共享,实现高效多尺度特征融合 > **文章目录: [YOLOv11改进大全:卷积层、轻量化、注意力机制、损失 阅读全文
posted @ 2026-03-16 21:22 魔改工程师 阅读(1) 评论(0) 推荐(0)
摘要: 本文介绍了轻量级视觉变换器CloFormer及其核心模块AttnConv在YOLOv11中的结合应用。为解决视觉变换器缩小到移动设备友好尺寸时性能下降的问题,提出CloFormer,其引入AttnConv操作符。AttnConv融合共享权重和上下文感知权重,先通过深度卷积提取局部表示,再用上下文感知权重增强特征,还结合传统注意力减少FLOPs,使模型感知高频和低频信息。我们将AttnConv集成进 阅读全文
posted @ 2026-03-16 21:21 魔改工程师 阅读(3) 评论(0) 推荐(0)