YOLO再升级!华为诺亚提出Gold-YOLO,聚集-分发机制打造新SOTA

©作者 | Traly



论文题目:

Gold-YOLO: Efficient Object Detector via Gather-and-Distribute Mechanism

论文地址:

https://arxiv.org/abs/2309.11331

PyTorch代码:

https://github.com/huawei-noah/Efficient-Computing/tree/master/Detection/Gold-YOLO

MindSpore代码:

https://gitee.com/mindspore/models/tree/master/research/cv/Gold_YOLO


我们针对传统类 FPN 结构中存在的跨层信息损失的问题,提出了全新的信息聚集-分发(Gather-and-Distribute Mechanism)GD 机制,通过在全局视野上对不同层级的特征进行统一的聚集融合并分发注入到不同层级中,构建更加充分高效的信息交互融合机制,并基于 GD 机制构建了 Gold-YOLO。在 COCO 数据集中,我们的 Gold-YOLO 超越了现有的 YOLO 系列,实现了精度-速度曲线上的 SOTA。




传统YOLO的问题


在检测模型中,通常先经过 backbone 提取得到一系列不同层级的特征,FPN 利用了 backbone 的这一特点,构建了相应的融合结构:不层级的特征包含着不同大小物体的位置信息,虽然这些特征包含的信息不同,但这些特征在相互融合后能够互相弥补彼此缺失的信息,增强每一层级信息的丰富程度,提升网络性能。
原始的 FPN 结构由于其层层递进的信息融合模式,使得相邻层的信息能够充分融合,但也导致了跨层信息融合存在问题:当跨层的信息进行交互融合时,由于没有直连的交互通路,只能依靠中间层充当“中介”进行融合,导致了一定的信息损失。之前的许多工作中都关注到了这一问题,而解决方案通常是通过添加 shortcut 增加更多的路径,以增强信息流动。
然而传统的 FPN 结构即便改进后,由于网络中路径过多,且交互方式不直接,基于 FPN 思想的信息融合结构仍然存在跨层信息交互困难和信息损失的问题。


Gold-YOLO:全新的信息融合交互机制

因此我们提出了一种全新的信息交互融合机制:信息聚集-分发机制(Gather-and-Distribute Mechanism)。该机制通过在全局上融合不同层次的特征得到全局信息,并将全局信息注入到不同层级的特征中,实现了高效的信息交互和融合。在不显著增加延迟的情况下 GD 机制显著增强了 Neck 部分的信息融合能力,提高了模型对不同大小物体的检测能力。
GD 机制通过三个模块实现:信息对齐模块(FAM)、信息融合模块(IFM)和信息注入模块(Inject)。
  • 信息对齐模块负责收集并对齐不同层级不同大小的特征
  • 信息融合模块通过使用卷积或 Transformer 算子对对齐后的的特征进行融合,得到全局信息
  • 信息注入模块将全局信息注入到不同层级中

在 Gold-YOLO 中,针对模型需要检测不同大小的物体的需要,并权衡精度和速度,我们构建了两个 GD 分支对信息进行融合:低层级信息聚集-分发分支(Low-GD)和高层级信息聚集-分发分支(High-GD),分别基于卷积和 transformer 提取和融合特征信息。
此外,为了促进局部信息的流动,我们借鉴现有工作,构建了一个轻量级的邻接层融合模块,该模块在局部尺度上结合了邻近层的特征,进一步提升了模型性能。我们还引入并验证了预训练方法对 YOLO 模型的有效性,通过在 ImageNet 1K 上使用 MAE 方法对主干进行预训练,显著提高了模型的收敛速度和精度。


验结果


我们在 COCO 数据集上测试了模型的精度,并使用 Tesla T4+TensorRT 7 测试了模型的速度,结果显示我们的 Gold-YOLO 在精度-速度曲线上取得了当前的 SOTA 结果。同时我们针对 Gold-YOLO 中不同分支和结构对模型精度和速度的影响,进行了相应的消融实验。为了验证 GD 机制在不同模型和任务中的鲁棒性,我们还进行了以下实验
  • 实例分割任务

将 Mask R-CNN 中的 Neck 部分替换为 GD,并在 COCO instance 数据集上进行训练和测试

  • 语义分割任务

将 PointRend 中的 Neck 部分替换为 GD,并在 Cityscapes 数据集上进行训练和测试

  • 不同的目标检测模型

将 EfficientDet 中的 Neck 部分替换为 GD,并在 COCO 数据集上进行训练和测试。



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


··

相关推荐

  • 靠发AIGC论文拿了100万年薪!不是靠努力和勤奋,而是......
  • 数据科学的业务价值转化秘籍
  • AB实验的关键变量
  • 信息流场景下的AIGC实践
  • ReCon框架帮助AI大模型识破谎言,来看智能体如何在阿瓦隆游戏中应对欺骗
  • 选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了
  • 语言、机器人破壁,MIT等用GPT-4自动生成模拟任务,并迁移到真实世界
  • 狂揽10k star,微软AutoGen框架太火了,智能体聊聊天就把问题解决了
  • OpenAI科学家最新大语言模型演讲火了,洞见LLM成功的关键
  • 权威赛事:“先锋杯”数字孪生创新应用大赛已火热开赛!
  • AirPods可以“读脑”了?还是能同时监测汗液乳酸浓度的那种|Nature
  • 大语言模型击败扩散模型!视频图像生成双SOTA,谷歌CMU最新研究,一作北大校友
  • OpenAI悄悄更改“价值观”:不All in AGI的别来沾边
  • 全面的中文大语言模型评测来啦!香港中文大学研究团队发布
  • GPT-4V被曝离谱bug:突然执行神秘代码,空白图片读出打折信息,网友们都看呆了
  • 这款Java调优方案,放到大厂相当炸裂!
  • 一文讲透时序和序列数据的存储、搜索、分析及挖掘
  • LLM in Reranking——利用LLM进行重排
  • 软考证书,彻底爆了!!
  • 400万token,大模型推理飙升22倍!清华校友爆火一作,GitHub狂揽1.8k星