YOLOv9改进策略【注意力机制篇】| EMA 即插即用模块,提高远距离建模依赖
一、本文介绍
本文记录的是基于EMA模块的YOLOv9目标检测改进方法研究。EMA
认为跨维度交互有助于通道或空间注意力预测,并且解决了现有注意力机制在提取深度视觉表示时可能带来的维度缩减问题。在改进YOLOv9
的过程中能够为高级特征图产生更好的像素级注意力,能够建模长程依赖并嵌入精确的位置信息。
专栏目录:YOLOv9改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进方向
专栏地址:YOLOv9改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!
文章目录
- 一、本文介绍
- 二、EMA原理
- 2.1 EMA原理
- 2.1.1 Coordinate Attention(CA)
- 2.1.2 Multi - Scale Attention(EMA)模块
- 2.2 特点
- 三、EMA的实现代码
- 四、添加步骤
- 4.1 修改common.py
- 4.1.1 基础模块1
- 4.1.2 创新模块2⭐
- 4.2 修改yolo.py
- 五、yaml模型文件
- 5.1 模型改进版本一
- 5.2 模型改进版本二⭐
- 六、成功运行结果