AlexNet :ImageNet Classification with Deep Convolution Neural Networks

网络架构:


网络架构

整个网络一共有八层,包括5层卷积层,3层全连接层,最后一层为输出层,输出1000维的vector,表示该image在1000类图像的分布情况。

每一卷积层和全连接层的都与激活层相连。第一,第二层卷积层之后,紧连着局部响应归一化层(Local Response Normalization),之后为池化层(下采样,MaxPooling)。第五层卷积层,紧连着池化层。

各层策略:

Local Response Normalization:

将当前神经元的输出与其邻近的n个神经元做归一化,对输出做一个尺度变换,(使得每个输出分布更集中,加快收敛,泛化性能)。ai表示第i个神经元输出,bi表示归一化后的神经元输出,k,a,n为常量,为超参数。


Local Response Normalization

Maxpooling层:

Max Pooling对得到的结果进行下采样,缩小输出结构。以往的池化层,采取无重叠池化。在AlexNet中,作者采用有重叠池化。实验结果表明,有重叠池化较无重叠池化更难于过拟合。假设输入为I,pooling区域大小为F,步长为stride,则输出大小为:(I - F)/stride  + 1

当无重叠池化时,F=stride,即 I/stride - F/stride + 1 = I/stride。

文中取F = 3,stride =2 即 (I - 3)/2 + 1


non-overlapping



overlapping

个人感觉重叠池化做法,与HOG特征生成过程中的归一化有点类似,归一化过程 ,block之间是有重叠的。重叠池化,考虑周围特征,把局部最显著的特征留下。

激活层(激活函数的选择):


tanh Vs ReLu

文中从收敛速度角度对比了tanh与ReLu激活函数,如图(实线表示ReLu,虚线表示tanh)。从图可看到,以tanh为激活函数,需要经过更多个epoch才能达到0.25的错误率。以ReLu为激活函数,模型收敛速度更快。

整体架构:

input(224 * 224 *3)

first layer:


first,second layer

Conv(Filter : 11*11*96,stride=4): (224 - 11)/4 +1 = 55  , 55*55 * 96   (拆成 55*55 * 48,,55*55*48便于两块CPU并行工作)

maxpooling: (55 - 3) /2 +1 = 27

second layer:

Conv (Filter:3*3*256,stride = 1,zero padding,padding = 1):(27+2 - 3)/1 +1 = 27, 27*27*256  (拆成 27*27 * 128,,27*27*128)

maxpooling: (27 - 3) /2 +1 = 13

thrid layer:


third,fourth layer

Conv (Filter:3*3*384,stride = 1,zero padding,padding = 1):(13+2 - 3)/1 +1 = 13, 13*13*384  (拆成 13*13* 192,,13*13*192)

fourth layer:

Conv (Filter:3*3*384,stride = 1,zero padding,padding = 1):(13+2 - 3)/1 +1 = 13, 13*13*384 (拆成 13*13 * 192,,13*13*192)

Fifth layer:


fifth layer

Conv (Filter:3*3*256,stride = 1,zero padding,padding = 1):(13+2 - 3)/1 +1 = 13, 13*13*256  (拆成 13*13 * 128,,13*13*128)

maxpooling: (13 - 3) /2 +1 = 6


全连接层

全连接层可看成上一层特征与同等大小的卷积核卷积得到。

第六层:

输入为: 6*6*128

滤波器:6*6 * 4096(4096个滤波器,每个滤波器有128个卷积核,每个卷积核大小 6*6) 得到 1*1*4096

下一层:1*1* 4096

最后一层:1*1*1000(1000个滤波器,每个滤波器有4096个卷积核,每个卷积核大小 1*1)




训练及优化:

减少过拟合风险:

数据增强(data argumentation):

对现有的数据进行一定的变换,用于训练。变换需是有意义的变换

1.对一256*256的图像,随机采样得到224*224的图片,并变换得到其水平反射图像,训练的样本增加2048倍((256-224)**2 * 2)

2.原本图像加上主成分特征向量与特征值和一个随机变量的乘积。

PCA数据变换
注释

dropout:以0.5的概率将一些的神经元输出设为0。

训练:

训练策略:用随机梯度下降的动量形式训练模型。

参数更新

参数初始化:

以均值为0,标准差为0.01的高斯分布初始化参数w。

学习率的改变:

初始化为0.01,当验证集错误率停止上升时,学习速率除以10,学习速率减小。


问题:为什么归一化层只在前两层?激活层:从线性到非线性的映射。滤波器3*3?maxpooling,3,4,5层的作用。从卷积层到最后输出采用全连接层的作用。

归一化的作用?

overlapping Pooling?

ReLu负半轴为0,未能激活?

代码:https://github.com/kratzert/finetune_alexnet_with_tensorflow

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容