1.为什么会说到YOLOv3?
为了能够在一张图片上能让机器自动把上面的物体一个个标记出来,人们在机器视觉领域进行了长期而艰苦的探索。
我自己学习人工智能的过程中不可避免的撞见了目标检测的需求,经过了一段时间的了解后,我慢慢理清了这个领域的技术演进。网上关于深度学习兴起之后的目标检测领域的发展是这么写的:
“2013年,R-CNN横空出世,目标检测DL世代大幕拉开。
各路豪杰快速迭代,陆续有了SPP,fast,faster版本,至R-FCN,速度与精度齐飞,区域推荐类网络大放异彩。奈何速度仍达不到实时要求。
此时,凭速度之长,网格类检测异军突起,先有YOLO,继而SSD,更是摘实时检测之桂冠,与区域推荐类二分天下。然准确率却时遭世人诟病。
遂有JR一鼓作气,并coco,推v2,增加输出类别,成就9000。此后一年,作者隐遁江湖,逍遥twitter。偶获灵感,终推v3,横扫武林!”
YoloV3的网络结构
Yolov3是目标检测领域炙手可热的项目。基于不同框架的实现版本不断涌现,相关剪枝、优化技术也不断有人探索。它的tiny版本即使有普通的CPU模式下也能达到30fps的性能。
YOLOv3的出现,一举摘掉了YOLO产生之初的“速度很快,但检测小物体不行”的帽子,在速度上和目标检测精度上双双齐飞。
2.YOLOv3有很多个版本
YOLOv3是由C语言编写的,这从一方面保证了它的效率和跨平台性,但从另一方面却让很多不习惯使用C语言的开发者使用起来不方便。于是基于不同平台的YOLOv3的实现便开始层出不穷:
YOLOv3的官网:
https://pjreddie.com/darknet/yolo/
官方的开源:
https://github.com/pjreddie/darknet
除了官方的YOLOv3开源项目之外,基于这个项目,还有一个版本的开源项目也有很高的star,这个项目是
https://github.com/AlexeyAB/darknet,
它提供了在linux和windows平台下使用方式,使原来不支持windows平台的官方源码可以在windows平台使用。不过这个项目是基于官方源码的,因此在windows平台上也是要经过编译,引用之类的步骤。在谈到在Python中使用YOLOv3这样的需求时,网上很多教程都是基于这个版本的。
我没有用这个版本,一来是它对于这个新手来说有点复杂,二来我是在Win10下想在Python中用的,但是它的编译环境配置要求比较烦。
在走了一段弯路之后,终于意识到其实基于tensorflow或是PyTorch等框架也是可以实现YOLOv3的,不必要一定要用官方源码。于是发现了很多个实现版本。
这里有个开源项目,汇集了不同框架下YOLOv3的复现版本:
https://github.com/amusi/YOLO-Reproduce-Summary
这些框架包括:TensorFlow,PyTorch,Keras,Caffe,MXNet。
以下是这些框架下复现的YOLOv3项目以及截止2019年8月份的star数:
TensorFlow:
https://github.com/YunYang1994/tensorflow-yolov3支持训练(1272 star) 有个报错,解决不了,有兴趣的可以再试试。
https://github.com/mystic123/tensorflow-yolo-v3不支持训练(580 star) 可用
https://github.com/maiminh1996/YOLOv3-tensorflow支持训练(268 star)
https://github.com/taehoonlee/tensornets不支持训练(826 star) 会自动下载一些东西,但下载失败,可能是我网络的问题。
https://github.com/wizyoung/YOLOv3_TensorFlow支持训练 (683 star)
PyTorch:
https://github.com/ayooshkathuria/pytorch-yolo-v3不支持训练(2026k star)
https://github.com/eriklindernoren/PyTorch-YOLOv3支持训练(2262k star)
https://github.com/ayooshkathuria/YOLO_v3_tutorial_from_scratch不支持训练(1317k star)
https://github.com/Lam1360/YOLOv3-model-pruning支持训练(665 star) 它重点是讲剪枝,是不同于其它项目的(中文说明)。
https://github.com/ultralytics/yolov3支持训练(1945 star) Thecode works on Linux, MacOS and Windows. Training is done on the COCO dataset
https://github.com/BobLiu20/YOLOv3_PyTorch 支持训练(402star)
https://github.com/DeNA/PyTorch_YOLOv3 支持训练(232star)
Keras:
https://github.com/qqwweee/keras-yolo3支持训练(3987k star)
https://github.com/xiaochus/YOLOv3 不支持训练(418star)
https://github.com/Adamdad/keras-YOLOv3-mobilenet支持训练(191 star)
Caffe:
https://github.com/eric612/MobileNet-YOLO 支持训练(301star)
https://github.com/ChenYingpeng/caffe-yolov3不支持训练(150 star)
https://github.com/eric612/Caffe-YOLOv3-Windows支持训练(97 star)
MXNet:
https://github.com/dmlc/gluon-cv/tree/master/gluoncv/model_zoo/yolo支持训练(2072 star)
以上只是我收集的一些yolov3开源项目,其实github上有近千个关于YOLOv3的开源项目,四分之三集中于Python语言,其它较多的是Jupyter/C/C++/C#/Java。如果需要,你可以去gitHub上拿YOLOv3做关键字搜索一下能看到它们(另有一部分项目是用darknet作为名字的,这个关键字也可以搜一下)。
请相信,你碰见的问题,github上一定有人也碰见过,并且解决了它,开源了它。
上面上一些在不同框架下复现YOLOv3的项目,其实在github上有些项目并不是在实现yolov3而是依据一些开源项目进行学习使用方法的整理,比如这个:
https://github.com/pascal1129/yolo_person_detect,它针对最流行的两个Yolov3开源项目,整理了如何使用,如何训练,如何搭建一个行人检测系统等。其它有还有些是教你如何训练,如何用搭建目标检测系统,如何在移动端集成使用等等。刚开始接触YOLOv3时,真的是一脸茫然,在网上到处搜索资料(当然这个过程也有好处,从不同方面了解了YOLOv3),然后发现有人整理github上关于yolov3的重现项目,突然回过神来了,YOLOv3的学习,要先去github上找它相关的各种开源项目,其中有些star少的也没关系,进去看一下,说不定有些就是你现在正在做的。
3.YOLOv3在Win10实现目标检测
这个开源项目被我测试是可行的:
https://github.com/mystic123/tensorflow-yolo-v3
只是它不支持训练,但这没关系,我们可以用其它项目训练好的模型到这里来用。
https://github.com/wizyoung/YOLOv3_TensorFlow
这个版本支持训练,但是遗憾的是它不支持yolov3-tiny版本。在们在做demo时用tiny版还是很需要的。
4.YOLOv3训练一个人体检测模型/训练模型
这里有些参考的地址:
https://mp.weixin.qq.com/s/cq7g1-4oFTftLbmKcpi_aQ
关于训练自己的数据模型,上面很多开源项目中都提供了方法。如果你已经会用上面的开源项目了,那么花点时间仔细读读它的训练方法,也不会很难的。其实最大的障碍我觉得是自己能够准备出足够的合适的数据。
5.YOLOv3模型与DarkNet53模型
起初,我认为Darknet53就是YOLOv3的一个别名,但后来发现其实不是。可以看一下它们两个神经网络的结构设计:
Darknet53的结构
YoloV3的结构
可以看出来,YOLOv3放弃了DarkNet53里的全连接层,而是全采用了卷积层。因此它也叫全卷积网络。
在上图中我们能够很清晰的看到三个预测层分别来自的什么地方,以及Concatenate层与哪个层进行拼接。注意Convolutional是指Conv2d+BN+LeakyReLU,和Darknet53图中的一样,而生成预测结果的最后三层都只是Conv2d。通过上图我们就能更加容易地搭建出YOLOv3的网络框架了。
YOLOv3的官方版本我们都知道是用C语言编写的。但是如果我们知道了它的网络结构,如果我们对于使用tensorflow或是pytorch还比较熟悉,用这种框架搭建起这个网络也不会很费事,可能代码量在500行上下吧。
可以通过参看github上那些用tensorflow或是pytorch实现的项目,花两天时间读一下他们的代码,自己肯定也会写出来的。
关于YOLOv3和Darknet53的网络结构,这里有两个博客可以参考一下:
https://blog.csdn.net/qq_37541097/article/details/81214953
https://blog.csdn.net/sum_nap/article/details/80568873
6.几点感想总结
1.YOLOv3尽管和其它的目标检测网络比起来,速度已经很快了,但是需要明确一点,如果你是运行在CPU模式下,YOLOv3-tiny能用于实时检测,其它模型基本是不具备实时的性能的。我在电脑上装虚拟机,装上Ubuntu之后,在里面测试,一个图片要用二十多秒才能完成检测,而YOLOv3-tiny则只要20毫秒。所以如果想用YOLOv3,但是又没有GPU条件,那就用这个tiny版本的模型。尽管它的准确性差了,但是做Demo,做原型够用了。
2.Github上的开源项目,如果你在ubuntu上按他们的说明进行操作,只有一部分都能很顺利运行起来。
3. 目前所谓的“实时”,工业界是不认可的。为什么呢,因为学术圈的人,验证模型都是建立在TitanX或者Tesla这类强大的独立显卡上,而实际的潜在应用场景中,例如无人机/扫地/服务机器人/视频监控等,是不会配备这些“重型装备”的。所以,在嵌入式设备中,如FPGA,TX2,轻量级CPU上,能达到的实时,才是货真价实的。如果你要做的是嵌入式的目标检测,你可能还有很多艰苦的工作要做。
4.模型小型化会成为重要分支。类似于tinyYOLO的模型分支会受到更多关注。模型的小型化是应用到嵌入式设备的重要前提。而物联网机器人无人机等领域还是以嵌入式设备为主的。模型剪枝/二值化/权值共享等手段会更广泛的使用。