从Keras开始掌握深度学习-3 实现卷积神经网络

前言

关于卷积神经网络的详细内容可以参考我前面写的文章:从零开始机器学习-18 CNN:卷积神经网络
在了解了卷积网络之后,不难发现,基本上所有的卷积网络都是按照:"卷积层->池化层->卷积层->池化层...->全连接层->输出层"这样的形式进行堆叠排列的。这样的层级结构在Keras中使用Sequential模型来实现极为方便。

在Keras中实现卷积网络

首先,卷积网络是神经网络的一种,因此卷及网络中需要有各种层与激活函数。这些层有全连接层(Dense Layer)、卷积层(Conv Layer)和池化层(Pooling Layer),因此需要导入Keras的Layers包中的如下内容:

from tensorflow.keras.layers import Dense, Dropout, Activation, Flatten, Conv2D, MaxPooling2D

在准备完成之后,通过Pickle加载上一讲中准备好的X(特征集)与y(标签集)数据。

X = pickle.load(open("X.pickle","rb"))
y = pickle.load(open("y.pickle","rb"))

为了更好地训练神经网络,在训练之前进行数据预处理显得至关重要。将数据进行归一化(Normalization)或者白化(Whitening)处理之后,神经网络算法的效果可以得到明显的提升。
归一化通常有:减均值、大小缩放和标准化三个方法。面对图像数据来说(像素取值范围通常是0-255),大小缩放是最好的方法,此时只要将数据除以255即可。

X = X / 255

下面便是使用Keras的Sequential模型来实现卷及网络了。
让我们来定义一个最简单的卷积网络,首先约定命名方法。使用Cx来标记卷积层,使用Px来表示池化层,使用Fx来表示全连接层。其中,x表示层的下标。
这个最简单的卷积网络将会由如下的几个层构成(读者可以自由扩展,或按照诸如LeNet-5等经典的网络结构来编写)。
首先是C1卷积层,这个卷积层是一个二维卷积层(Conv2D),卷积核的数目是64,即输出的维度是64,卷积核的大小为3x3,当使用该层作为第一层时,应提供input_shape参数。例如input_shape = (128,128,3)代表128x128的彩色RGB图像(data_format='channels_last')
紧接着C1卷积层需要提供一个激活函数,这里采用ReLU作为激活函数。
然后就是P1池化层,池化层采用最常见的MaxPooling,采用2x2的池化大小,也就是下采样因子。
C2,P2重复上述层。
最后再输出之前我们需要将上述几个层的输出作为全连接层的输入。由于卷积层和池化层的输出是2D的,因此需要将其压平,此时需要用到Flatten,而后使用sigmoid激活函数将结果输出(我们只需对猫和狗进行分类,如果分类的类别过多地话则可以用softmax作为激活函数)。
这样,整个网络的结构就被定义完了。在进行训练之前,需要提供损失函数和优化函数等。这里使用二元交叉熵作为损失函数,采用ADAM作为优化器,使用accuracy作为性能评估项。
上述代码如下:

model = Sequential()

model.add(Conv2D(64, (3, 3), input_shape = X.shape[1:]))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2,2)))

model.add(Conv2D(64, (3, 3)))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2,2)))

model.add(Flatten()) #Conv Layer是2D, DenseLayer是1D的 所以需要将ConvLayer压平
model.add(Dense(64))
model.add(Activation("relu"))

model.add(Dense(1))
model.add(Activation("sigmoid"))

model.compile(loss="binary_crossentropy",
             optimizer="adam",
             metrics=["accuracy"]) # 可以使用categorical_crossentropy作为损失函数

model.fit(X, y, batch_size =32, epochs=10, validation_split=0.1)

通过model.fit方法,我们给模型提供了数据集,指明了训练的epoch和验证集划分的比例。运行程序之后,训练结果如下:

训练结果

可以看到,通过10个epochs之后,卷积网络的预测准确率在验证集上达到了0.8以上。这个结果也是普通的MLP绝对无法做到的。
通过采用更加先进的网络结构,可以得到更高的准确率。

图像分类模型

以时间为顺序,有这些卷积网络被提出。
LeNet-5,AlexNet,VGGNet,GoogLeNet,ResNet和DenseNet等。这些图像分类模型的不断发展,推进着图像分类准确率不断提升。
这些网络结构虽然越来越复杂,但都可以通过Keras或是Tensorflow来实现。读者可以选择特定的网络,以提高准确度作为目标,来实现相应的图像分类模型。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容