YOLOV5/YOLOV8改进:CVPR23:加入ConvNeXt V2主干,有效涨点

论文地址: https://arxiv.org/pdf/2301.00808v1.pdf

  在改进的架构和更好的表示学习框架的推动下,视觉识别领域在20世纪20年代初实现了快速现代化和性能提升。例如,以ConvNeXt[52]为代表的现代ConvNets在各种场景中都表现出了强大的性能。虽然这些模型最初是为使用ImageNet标签进行监督学习而设计的,但它们也可能受益于自监督学习技术,如掩蔽自动编码器(MAE)。然而,我们发现,简单地将这两种方法结合起来会导致较差的性能。在本文中,我们提出了一个完全卷积屏蔽的自动编码器框架和一个新的全局响应归一化(GRN)层,该层可以添加到ConvNeXt架构中,以增强信道间特征竞争。这种自我监督学习技术和架构改进的共同设计产生了一个名为ConvNeXt V2的新模型家族,它显著提高了系统的性能

YOLOv5改进:

以YOLOv5-7.0版本进行改进

1.新建convnextv2.py文件,加入如下代码

# Copyright (c) Meta Platforms, Inc. an

猜你喜欢

转载自blog.csdn.net/m0_51530640/article/details/131126340