model | author | year | structure |
---|---|---|---|
LeNet | 1986 | 2 layers convolution 2 layers subsampling 2 layers full-connected 1 layer Gaussian connection |
|
AlxNet | Alex Krizhevsky | 2012 | 5 layers conv 3 layers full-connected |
GoogleLeNet | Alex Krizhevsky | 2014 | many convolution |
VGG 16 | Google DeepMind | 2015 | 13 layers convolution 3 layers full-connected |
Deep Residual Learning | 何凯明 | 2015 | 152 layers |
SqueezeNet | Iandola | 2016 | 2 layers convolution 8 layers fire |
LeNet
较早期的神经网络,用于识别数字,当年美国大多数银行就是用它来识别支票上面的手写数字的。
链接:http://blog.csdn.net/geekmanong/article/details/50605340
AlexNet
2012 ILSVRC 大放异彩,神经网络的时代重启.
链接:https://www.cnblogs.com/alexanderkun/p/6918045.html
GoogLeNet
14年比赛冠军的model,这个model证明了一件事:用更多的卷积,更深的层次可以得到更好的结构。
链接:http://blog.csdn.net/shuzfan/article/details/50738394#googlenet-incepetion-v1
VGG 16
VGG有很多个版本,也算是比较稳定和经典的model。它的特点也是连续conv多,计算量巨大
链接:http://blog.csdn.net/errors_in_life/article/details/65950699
Deep Residual Learning
这个model是2015年底最新给出的,也是15年的ILSCRC比赛冠军。可以说是进一步将conv进行到底,其特殊之处在于设计了“bottleneck”形式的block(有跨越几层的直连)。最深的model采用的152层!
链接:http://blog.csdn.net/xbinworld/article/details/45619685
SqueezeNet
模型小巧,引入了fire层 (squeeze and expand).准确率和 AlexNet 差不多,但是模型小了50x.
链接:http://blog.csdn.net/shenxiaolu1984/article/details/51444525