这一段时间撸了几篇论文,当我撸到GoogLeNet系列论文的时候,真是脑洞大开!GoogLeNet绝对可以称为已公开神经网络的复杂度之王!每当我看到它那错综复杂的网络图时,心里总有一种说不出的苦涩滋味,我也不知为何。
然后,我萌生了一个想法,用自己的语言描述一下GoogLeNet的发展历程和关键技术点,我知道网上已经有很多人总结过GoogLeNet的各种版本,但那毕竟是别人的东西,自己总结一遍会提升自己的水平。计划是写4篇文章,希望能在一个月内完成吧。下面是GoogLeNet的4篇论文:
- [v1] Going Deeper with Convolutions,ensemble top5 error 6.67%,2014
- [v2] Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,ensemble top5 error 4.8%,2015
- [v3] Rethinking the Inception Architecture for Computer Vision,ensemble top5 error 3.5%,2015
- [v4] Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning,ensemble top5 error 3.08%,2016
v4版本top5错误率只有3.08%!这个应该是目前错误率最低的吧。
不过有时候自己也会萌生一些悲观想法,现在深度学习的网络是越做越复杂,针对某些数据集的识别率是越来越高,可是,然并卵,当我们换个数据集,换个环境,换个照片,换个……以后,效果就不行了,这真是个问题啊!
已完工:
GoogLeNet的心路历程(二)
GoogLeNet的心路历程(三)
GoogLeNet的心路历程(四)
GoogLeNet的心路历程(五)