Tensorflow:实战Google深度学习框架第六章

一介绍

该部分是该书的第六章,该章节主要讲述了卷积神经网络, 该章节主要分为数据集介绍,神经网络介绍,神经网络的常用结构,当前经典的模型以及迁移学习。 在这里我主要介绍卷积网络的介绍,常用结构,经典模型以及迁移学习这几部分。


二 卷积神经网络介绍

全连接神经网络和卷积网络的结构

俩种网络相似:

     1. 结构相似,都是由一层一层的节点组成                                                                                     2. 输入输出基本一致

俩种网络差异:

     1. 结构上,全连接网络,层层之间节点都有连接,但是卷积网络层层之间的节点只有部分连接                                                                                                                                                         2. 参数问题上,全连接网络处理图像的最大问题就是要处理的参数太多,以MNIST数据集为例,每一张图片的大小是28*28*1, 28*28代表图片大小, *1表示像素。假设第一层的隐藏节点为500个,那么一个全连接网络的参数有:288*28*1*500 + 500 = 392500, 其中+500代表bias的数目。

卷积网络的组成:   

    1.输入层: 跟全连接神经网络是一样的, 通常是三维矩阵,前俩维表示图像大小,后一维表示色彩通道。从输入层开始,卷积神经网络通过不同的神经网络结构将上一层的三维矩阵转化为下一层的三维矩阵,直到全连接层。                                                                                              2.卷积层:核心结构,卷积层中每一个节点的输入只是上一层神经网络的一小块,这个小块常用的大小有3*3 或者5*5. 卷积层试图将神经网络中的每一小块进更加深入地分析从而得到抽象程度更高的特征。通常来说,通过卷积层处理过的节点矩阵会变得更深。                                       3.池化层:池化层不会改变三维矩阵的深度,但是它可以缩小矩阵的大小。池化操作可以被认为是将一张分辨率较高的图片转化为分辨率较低的图片。通过池化层,可以进一步缩小最后全连接层中节点的个数,从而大到减少整个神经网络中参数的目的。                                                 4.全连接层:经过几轮卷积层和池化层的处理之后,可以认为图像中的信息已经被抽象成了信息含量更高的特征。之后就需要在这些特征的基础上,使用全连接层来进行分类任务。                5.softmax层:


三 常用的结构

3.1 卷积层

    卷积神经网络最重要的部分就是内核或者过滤器,可以将当前层的神经网络上的一个子节点矩阵转化为下一层神经网络上的一个单位节点矩阵。单位节点矩阵指的是一个长和宽都为1,但深度不限的节点矩阵。

过滤器

过滤器的长和宽是由人工指定的,这个节点矩阵的尺寸也被称为过滤器的尺寸,常用的大小为3*3, 5*5。因为过滤器的深度和当前层神经网络节点的矩阵深度是一致的,所以虽然节点矩阵是三维的,但是只需要指定俩个维度。过滤器需要人工指定的另一个参数是节点矩阵的深度。一个过滤器将2*2*3的矩阵转换为1*1*5的矩阵。需要的参数是2*2*3*5 + 5, 2*2*3 代表过滤器的大小, 5代表深度, + 5代表bias。

当使用全0填充时:

                                            \begin{equation}\begin{aligned}out_{length} &= \lceil in_{length} / stride_{length}\rceil\\out_{width} &= \lceil in_{width} / stride_{width}\rceil \end{aligned}\end{equation}                                       其中in代表输入矩阵,stride代表步长,为向上取整                                                                       当没有全0填时:                                                                                                                                                    \begin{equation}\begin{aligned}out_{length} &= \lceil {(in_{length} - filter_{length} + 1) / stride_{length}}\rceil\\out_{width} &= \lceil{( in_{width} - fileter_{width} + 1) / stride_{width}}\rceil \end{aligned}\end{equation}

关于参数问题: 举例说明输入层矩阵的维度是32*32*3, 假设第一层卷积层使用尺寸为5*5,深度为16的过滤器。那么这个卷积层的参数个数为5*5*3*16+16, 参数只跟过滤器的尺寸以及深度以及当前层节点矩阵的深度有关。

卷积层代码

3.2池化层

在卷积层之间通常会加上一个池化层。池化层可以非常有效地缩小矩阵的尺寸,从而减少最后全连接层中的参数。作用加快计算速度以及防止过拟合问题。池化层中的计算不是节点的加权和,而是采用更加简单的最大值或平均值运算。

池化层
池化层代码

3.3 经典网络结构

卷积神经网络

上面所述的是LeNet-5模型,通用结构就是:

                        输入层  \rightarrow (卷积层+ \rightarrow 池化层?)+\rightarrow 全连接层

? 代表大于等于0, + 表示大于等于1, 说明池化层的数目可以没有, 池化层主要防止模型的过拟合,可以用卷积层的步长替代。卷积神经网络在输出之前一般会经过1到2个全连接层。

除了上面的结构,还有一种卷积结构,Inception-v3:

inception结构

Inception模块会首先使用不同尺寸的过滤器处理输入矩阵。如上图所示,虽然过滤矩阵的大小不同,但如果所有过滤器都使用全0填充且步长为1,那么前向传播得到的结构矩阵的长和宽都与输入矩阵一致。这样经过不同过滤器处理的结果矩阵可以拼接称一个更深的矩阵。

inception -v3

inception-v3参考

3.4 迁移学习

随着模型层数及复杂度的增加,模型的错误率也随之改变。然而训练复杂的卷积神经网络需要非常多的标注数据。在真实的应用中,很难收集到如此多的标注数据,即使可以收集到,也需要花费大量的人力物力。即使有海量的训练数据, 要训练一个复杂的卷积神经网络也需要几天甚至几周的时间。为了解决标注数据和训练时间的问题,引入了迁移学习。                                迁移学习就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的问题。通常将训练好的模型的全连接层之前的结构保留,只替换全连接层, 这样就在原模型的抽取特征的前提下,训练全连接模型。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,165评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,503评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,295评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,589评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,439评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,342评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,749评论 3 387
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,397评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,700评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,740评论 2 313
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,523评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,364评论 3 314
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,755评论 3 300
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,024评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,297评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,721评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,918评论 2 336

推荐阅读更多精彩内容

  • Yann LeCun、Yoshua Bengio和Geoffrey Hinton http://dataunion...
    yansicing阅读 452评论 0 1
  • 古人常说:“书中自有黄金屋,书中自有颜如玉。”为什么古人这么重视读书,在古代盛行一种考试制度,名为“科举制”,想必...
    黎落_defb阅读 230评论 0 0
  • 坐公交的时候有两个大学生坐在我后面,他们一路聊的都是些日常琐事。突然发现我已经很久很久没有过这种有一搭没一搭的日常...
    十五长安阅读 598评论 0 1
  • 经过紧张的高考,期待了十几年的大学如约而至,自己能想到的关于学校的词大,美,恨不得抓个瞬间向旁校的同学嘚瑟,慢慢习...
    小鹅的烦恼阅读 76评论 0 0