大神接棒,YOLOv4来了!

 

43.5%AP,速度高达65 FPS!...

点击上方“CVer”,选择加"星标"或“置顶”
重磅干货,第一时间送达


前言

今天刷屏的动态一定是 YOLOv4!
本文 Amusi 会跟大家说一下在别处看不到内容(大神接棒),欢迎继续阅读!

之前,YOLO系列(v1-v3)作者 Joe Redmon 宣布不再继续CV方向的研究,引起学术圈一篇哗然。YOLO之父宣布退出CV界,坦言无法忽视自己工作带来的负面影响
推文链接:https://twitter.com/jeremyphoward/status/1230610470991589376

Amusi 特意去谷歌学术上搜索了一下YOLOv1-v3的引用量,累计破16000+!


大神接棒,YOLOv4来了!

当大家以为再也见不到YOLOv4的时候,然鹅今天 YOLOv4 来了!

YOLOv4的作者阵容里并没有Joe Redmon,也验证了大神曾说不再继续CV研究的这条消息。但都木有YOLO之父Joe Redmon的论文,其名字为什么还敢叫YOLOv4呢,不怕被喷么?

这里Amusi 花点时间跟大家介绍一下这个有趣的事情。

先说说:大神接棒的事情

停更两年之久的的YOLO github官网正式更新 README,那么更新了什么呢?接着往下看

YOLO官网:https://github.com/pjreddie/darknet
YOLO官方github正式加入YOLOv4的论文和代码链接,也意味着YOLOv4得到了Joe Redmon的认可,也代表着YOLO的停更与交棒
关于YOLOv4,Amusi 曾写过这样一篇文章来预宣传(现在想想,应该是全网第一个这样介绍的):等待YOLOv4的期间,它还在更新

YOLOv4的一作是 Alexey Bochkovskiy,用过YOLO的同学,特别是用过Windows版YOLO的同学对这个名字一定很熟悉!

因为他就是darknet另一个github版本的维护者,也就是YOLOv4的代码库:

https://github.com/AlexeyAB/darknet

据Amusi 猜测推断,Alexey Bochkovskiy 是一名独立研究员,这里更愿意称为之YOLO接棒者,YOLO社区推动者。这里对Alexey不过多赘述,想了解的同学可以看一下:等待YOLOv4的期间,它还在更新

值得一提的是,这个版本的darknet的提交数已经来到 1777 次。试想一下,你一天提交一次更新,那么就需要你连续近5年不停更!

我们一般只会用两个字来形容这种人:码怪
YOLOv4 正文



YOLOv4: Optimal Speed and Accuracy of Object Detection

论文:https://arxiv.org/abs/2004.10934

代码:https://github.com/AlexeyAB/darknet

大家一定被文章开头的图片吸引了,位于图中靠右上角的YOLOv4 多么"亮眼",越靠右上角意味着AP越高、速度FPS越快!而且YOLO被大家追捧的原因之一就是:快而准。
YOLOv4 在COCO上,可达43.5% AP,速度高达 65 FPS!

YOLOv4的特点是集大成者,俗称堆料。但最终达到这么高的性能,一定是不断尝试、不断堆料、不断调参的结果,给作者点赞。下面看看堆了哪些料:

  • Weighted-Residual-Connections (WRC)
  • Cross-Stage-Partial-connections (CSP)
  • Cross mini-Batch Normalization (CmBN)
  • Self-adversarial-training (SAT) 
  • Mish-activation
  • Mosaic data augmentation
  • CmBN
  • DropBlock regularization
  • CIoU loss
本文的主要贡献如下:

1. 提出了一种高效而强大的目标检测模型。它使每个人都可以使用1080 Ti或2080 Ti GPU 训练超快速和准确的目标检测器(牛逼!)。

2. 在检测器训练期间,验证了SOTA的Bag-of Freebies 和Bag-of-Specials方法的影响。

3. 改进了SOTA的方法,使它们更有效,更适合单GPU训练,包括CBN [89],PAN [49],SAM [85]等。文章将目前主流的目标检测器框架进行拆分:input、backbone、neck 和 head

具体如下图所示:
  • 对于GPU,作者在卷积层中使用:CSPResNeXt50 / CSPDarknet53
  • 对于VPU,作者使用分组卷积,但避免使用(SE)块-具体来说,它包括以下模型:EfficientNet-lite / MixNet / GhostNet / MobileNetV3
作者的目标是在输入网络分辨率,卷积层数,参数数量和层输出(filters)的数量之间找到最佳平衡。文中称:CSPDarknet53在检测上的表现要优于CSPResNext50,关于CSP,不了解的同学可以看一下这篇文章:

增强CNN学习能力的Backbone:CSPNet
总结一下YOLOv4框架:

  • Backbone:CSPDarknet53
  • Neck:SPP,PAN
  • Head:YOLOv3
YOLOv4 = CSPDarknet53+SPP+PAN+YOLOv3其中YOLOv4用到相当多的技巧:
  • 用于backbone的BoF:CutMix和Mosaic数据增强,DropBlock正则化,Class label smoothing
  • 用于backbone的BoS:Mish激活函数,CSP,MiWRC
  • 用于检测器的BoF:CIoU-loss,CmBN,DropBlock正则化,Mosaic数据增强,Self-Adversarial 训练,消除网格敏感性,对单个ground-truth使用多个anchor,Cosine annealing scheduler,最佳超参数,Random training shapes
  • 用于检测器的Bos:Mish激活函数,SPP,SAM,PAN,DIoU-NMS


看看YOLOv4部分组件:


感受一下YOLOv4实验的充分性(调参的艺术)


感受一下性能炸裂的YOLOv4实验结果


论文篇幅很长,高达17页,干货满满!推荐大家阅读原文和源码进行深入理解。

跟我一起喊:大神接棒,YOLOv4 来了!

论文下载

在CVer公众号后台回复:YOLO,即可下载本论文
重磅!CVer-目标检测 微信交流群已成立
扫码添加CVer助手,可申请加入CVer-目标检测 微信交流群,目前已汇集3800人!涵盖2D/3D目标检测、小目标检测、遥感目标检测等。互相交流,一起进步!

同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。

一定要备注:研究方向+地点+学校/公司+昵称(如目标检测+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲长按加群
▲长按关注我们


麻烦给我一个在看!


    关注 CVer


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册