一、本文介绍
本文记录的是利用SeaFormer++
模型中提出的Sea_Attention
模块优化YOLOv11
的目标检测网络模型。Sea_Attention
利用挤压轴向注意力有效地提取全局语义信息,并通过细节增强核补充局部细节,优化了Transformer块
的特征提取能力。本文将其加入到YOLOv11
的不同位置中,使模型能够在不引入过多计算开销的情况下聚合空间信息。
专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
文章目录
- 一、本文介绍
- 二、混合局部通道注意力介绍
- 2.1 出发点
- 2.2 原理
- 2.2.1 Squeeze Axial attention(挤压轴向注意力)
- 2.2.2 Detail enhancement kernel(细节增强核)
- 2.3 结构
- 2.3.1 Squeeze Axial attention部分
- 2.3.2 Detail enhancement kernel部分
- 2.4 优势
- 三、Sea_Attention的实现代码
- 四、创新模块
-
- 五、添加步骤
-
- 六、yaml模型文件