卷积神经网络知识学习笔记

教材选用《动手学深度学习》,李沐等著;


卷积神经网络(CNN)是含有卷积层(convolutional layer)的神经网络,二维卷积层有高和宽两个空间维度,常用来处理图像数据。

卷积层

虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cross-correlation)运算。关于卷积运算和互相关运算的关系可以查看这里

二维互相关

二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(feature map)。影响元素 𝑥 的前向计算的所有可能输入区域(可能大于输入的实际尺寸)叫做 𝑥 的感受野(receptive field)。
填充(padding)是指在输⼊⾼和宽的两侧填充元素(通常是0元素),每次滑动的⾏数和列数称为步幅(stride)。
彩⾊图像在⾼和宽2个维度外还有RGB(红、绿、蓝)3个颜⾊通道,假设彩⾊图像的⾼和宽分别是h和w(像素),那么它可以表⽰为⼀个3 × h × w的多维数组,我们将⼤小为3的这⼀维称为通道(channel)维。

池化层

池化(pooling)层的提出是为了缓解卷积层对位置的过度敏感性。不同于卷积层⾥计算输⼊和核的互相关性,池化层直接计算池化窗口内元素的最⼤值或者平均值,该运算也分别叫做最⼤池化或平均池化。

最大池化

池化层填充和步幅与卷积层填充和步幅的⼯作机制⼀样,池化层在处理多通道输⼊数据时是对每个输⼊通道分别池化,而不是像卷积层那样将各通道的输⼊按通道相加。

代表性卷积神经网络

卷积神经⽹络(LeNet)

LeNet分为卷积层块和全连接层块两个部分。
卷积层块里的基本单位是卷积层后接最大池化层:卷积层用来识别图像里的空间模式,例如线条和物体局部,之后的最大池化层则用来降低卷积层对位置的敏感性。卷积层块由两个这样的基本单位重复堆叠构成。
卷积层块的输出形状为(批量大小,通道,高,宽)。当卷积层块的输出传入全连接层块时,全连接层块会将小批量中每个样本变平(flatten)。也就是说,全连接层的输入形状将变成二维,其中第一维为小批量中的样本,第二维为每个样本变平后的向量表示,且向量长度为通道、高和宽的乘积。
LeNet交替使⽤卷积层和最⼤池化层后接全连接层来进⾏图像分类。LeNet的详细结构可以查看这里

深度卷积神经⽹络(AlexNet)

计算机视觉流程中真正重要的是数据和特征,使用较干净的数据集和较有效的特征甚至比机器学习模型的选择对图像分类的结果影响更大。
2012 年,AlexNet 横空出世。AlextNet 与 LeNet 的设计理念非常相似,但也有显著的区别。
第一,与相对较小的 LeNet 相比,AlexNet 包含 8 层变换,其中有五层卷积和两层全连接隐含层,以及一个全连接输出层。
第二,AlextNet 将 sigmoid 激活函数改成了更加简单的 ReLU 激活函数。
第三,AlextNet 通过丢弃法来控制全连接层的模型复杂度。
第四,AlextNet 引入了大量的图像增广,例如翻转、裁剪和颜色变化,从而进一步扩大数据集来缓解过拟合。
AlexNet 跟 LeNet 结构类似,但使用了更多的卷积层和更大的参数空间来拟合大规模数据集 ImageNet。它是浅层神经网络和深度神经网络的分界线。AlextNet 的详细结构可以查看这里

使⽤重复元素的⽹络(VGG)

VGG 提出了可以通过重复使用简单的基础块来构建深度模型的思路。VGG 块的组成规律是:连续使用数个相同的填充为 1、窗口形状为 3×3 的卷积层后接上一个步幅为 2、窗口形状为 2×2 的最大池化层。卷积层保持输入的高和宽不变,而池化层则对其减半。VGG的原始论文可以查看这里

⽹络中的⽹络(NiN)

NiN是指串联多个由卷积层和“全连接”层构成的小⽹络来构建⼀个深层⽹络的思路。NiN 使用 1×1 卷积层来替代全连接层,下图对比了 NiN 同 AlexNet 和 VGG 等网络在结构上的主要区别。

NiN为右边的结构

NiN 块是 NiN 中的基础块。它由一个卷积层加两个充当全连接层的 1×1 卷积层串联而成。NiN 去除了容易造成过拟合的全连接输出层,而是将其替换成输出通道数等于标签类别数的 NiN 块和全局平均池化层。NiN的原始论文可以查看这里

含并⾏连结的⽹络(GoogLeNet)

GoogLeNet 吸收了 NiN 中网络串联网络的思想,并在此基础上做了很大改进,在随后的几年里,研究人员也对 GoogLeNet 进行了数次改进。
GoogLeNet 中的基础卷积块叫做 Inception 块,这个基础块在结构上更加复杂。

GoogLeNet中的Inception块

Inception块相当于一个有四条线路的子网络。它通过不同窗口形状的卷积层和最大池化层来并行抽取信息,并使用 1×1 卷积层减少通道数从而减小模型复杂度。GoogLeNet目前经历了四个版本,我之前写过一篇关于Inception-v3的学习笔记,关于Inception改进的历史可以查看这里
Inception-v1的结构图

批量归一化

在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使得整个神经网络在各层的中间输出的数值更稳定。对全连接层和卷积层做批量归一化的方法稍有不同。

残差⽹络(ResNet)

在实践中,添加过多的层后训练误差往往不降反升,即使利用批量归一化带来的数值稳定性使得训练深层模型更加容易,这个问题仍然存在,针对这一问题提出了残差网络(ResNet)。

残差块为右边的结构

在残差块中,输入可通过跨层的数据线路更快地向前传播。ResNet 沿用了 VGG 全 3×3 卷积层的设计,而残差块通过跨层的数据通道从而能够训练出有效的深度神经网络。ResNet的原始论文可以查看这里

稠密连接⽹络(DenseNet)

ResNet 中的跨层连接设计引申出了数个后续工作,其中稠密连接网络(DenseNet)与 ResNet 的主要区别如下图所示。

稠密块为右边的结构

DenseNet 的主要构建模块是稠密块(dense block)和过渡层(transition layer)。前者定义了输入和输出是如何连结的,后者则用来控制通道数,使之不过大。DenseNet 的原始论文可以查看这里,DenseNet 的算法详解可以查看这里

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,590评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,808评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,151评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,779评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,773评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,656评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,022评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,678评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,038评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,756评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,411评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,005评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,973评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,053评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,495评论 2 343

推荐阅读更多精彩内容