[专题1]TensorFlow构造神经网络(1)

我们以手写体书 识别为例.  需要使用tensorFlow库: 

#-*-coding:UTF-8-*-

import tensorflow as tf

采用的数据集是 MNIST , 由于tensorFlow 中已经对MNIST 数据集合的封装,所以自己直接写:

from tensorflow.examples.tutorials.mnist import input_data

#加载数据

mnist = input_data.read_data_sets('/tmp/data/',one_hot=True)

以上是把准备工作做好了.

接下来为了更好的说明程序的逻辑, 给出流程图:


流程图

Step1: 修改输入数据的结构:

以上这句话就是说 要对inputs的结构做变形(reshape),inputs原有的形状为[-1, 28*28] , 现在要修改为 [-1, 28,28, 1] , 其中-1 是代表数量大小不确定

#把inputs更改为4维张量,第1维代表样本数量,第2维和第3维代表图像长宽, 第4维代表图像通道数, 1表示黑白; 

#如果有维度=-1,代表数量不确定

x = tf.reshape(inputs,[-1,28,28,1])


Step2: 声明超参数

超惨数一般是  学习率和 dropout

learning_rate=0.001 #学习率

dropout=0.75

Step3: 声明所需变量

这部分要根据实际情况分析;在这里我们知道label和dropout将来会在训练的时候使用,所以需要提前声明。

#训练标签数据

labels = tf.placeholder(tf.float32,shape=[None,10])

#dropout

keep_prob = tf.placeholder(tf.float32) # step2中的dropout=0.75 将来会feed 到这里

Step4: 设计CNN结构

把所需要的变量声明完毕以后,接下来我们开始设计卷积神经网络的结构(CNN).

实际上,为了操作方便。tensorflow中常用的做法和论文中描述的不太一样,在卷积过程中并不会像论文中表述的那样卷积后缩小维度,大小不变,但是卷积后会增加”厚度“;但在pooling的时候会降低维度(这点和论文上表述的一样);当然,tensorflow也提供了与论文卷积操作描述一样的函数(详情请见 机器学习沉思录的ConvolutionCommon Layers

4.1 第一部分

4.1.1第一层卷积

conv1_weights = tf.Variable(tf.random_normal([3,3,1,64]))#卷积核大小为3*3,当前层深度为1, 过滤器深度为64

#卷积

conv1 = tf.nn.conv2d(x,conv1_weights,strides=[1,1,1,1],padding='SAME')#移动步长为1,使用全0填充

conv1_biases = tf.Variable(tf.random_normal([64]))

#激活函数Relu去线性化

relu1 = tf.nn.relu( tf.nn.bias_add(conv1,conv1_biases) )

#最大池化

pool1 = tf.nn.max_pool(relu1,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')#池化层过滤器的大小为2*2,移动步长为2,使用全0填充

#规范化

norm1 = tf.nn.lrn(pool1,depth_radius=4,bias=1.0,alpha=0.001/9.0,beta=0.75)

norm1 = tf.nn.dropout(norm1,keep_prob)

print(norm1.get_shape())#14*14*64

为了更加直观的看到,我画了一张图:


第一层对应的代码的图示



4.1.2第二层卷积

conv2_weights = tf.Variable(tf.random_normal([3,3,64,128]))#卷积核大小为3*3,当前层深度为64, 过滤器深度为128

conv2 = tf.nn.conv2d(norm1,conv2_weights,strides=[1,1,1,1],padding='SAME')#移动步长为1,使用全0填充

conv2_biases = tf.Variable(tf.random_normal([128]))

relu2 = tf.nn.relu( tf.nn.bias_add(conv2,conv2_biases) )

pool2 = tf.nn.max_pool(relu2,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')

norm2 = tf.nn.lrn(pool2,depth_radius=4,bias=1.0,alpha=0.001/9.0,beta=0.75)

norm2 = tf.nn.dropout(norm2,keep_prob)

print(norm2.get_shape())#7*7*128



第二层对应的图示


4.1.3第三层卷积

conv3_weights= tf.Variable(tf.random_normal([3,3,128,256]))#卷积核大小为3*3,当前层深度为128, 过滤器深度为256

conv3 = tf.nn.conv2d(norm2,conv3_weights,strides=[1,1,1,1],padding='SAME')#移动步长为1,使用全0填充

print("conv3=")

print(conv3.get_shape())

conv3_biases = tf.Variable(tf.random_normal([256]))

relu3 = tf.nn.relu( tf.nn.bias_add(conv3,conv3_biases) )

print("relu=")

print(relu3.get_shape())

pool3 = tf.nn.max_pool(relu3,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')

print("pool3=")

print(pool3.get_shape())

norm3 = tf.nn.lrn(pool3,depth_radius=4,bias=1.0,alpha=0.001/9.0,beta=0.75)

norm3 = tf.nn.dropout(norm3,keep_prob)

print(norm3.get_shape())#4*4*256



第三层对应的代码


4.4.4全连接层


fc1_weights= tf.Variable(tf.random_normal([4*4*256,1024]))

fc1_biases = tf.Variable(tf.random_normal([1024]))

fc1 = tf.reshape(norm3,[ -1,fc1_weights.get_shape().as_list()[0] ] )

fc1 = tf.add(tf.matmul(fc1,fc1_weights),fc1_biases)

fc1 = tf.nn.relu(fc1)


fc2_weights= tf.Variable(tf.random_normal([1024,1024]))

fc2_biases = tf.Variable(tf.random_normal([1024]))

fc2 = tf.reshape(fc1,[ -1,fc2_weights.get_shape().as_list()[0] ] )

fc2 = tf.add(tf.matmul(fc2,fc2_weights),fc2_biases)

fc2 = tf.nn.relu(fc2)


4.1.5输出层

out_weights= tf.Variable(tf.random_normal([1024,10]))

out_biases = tf.Variable(tf.random_normal([10]))

pred = tf.add(tf.matmul(fc2,out_weights),out_biases)

4.2 第二部分:

4.2.1定义损失函数 

这里用的是交叉熵

cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=labels))


4.2.3选择优化器

train_op = tf.train.AdamOptimizer(learning_rate=0.001).minimize(cost)

4.3.4定义评估函数

correct_prediction = tf.equal(tf.argmax(pred,1),tf.argmax(labels,1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))


Step5. 训练模型

在这里会使用道我们之前的palaceholder 一些数据需要feed

#sess.run(tf.global_variables_initializer())

sess.run(tf.initialize_all_variables())

for i in range(10000):

    batch = mnist.train.next_batch(100)

    sess.run(train_op,feed_dict={inputs: batch[0],labels: batch[1],keep_prob:0.75})#训练阶段使用75%的Dropout

   if i %100==0:

   train_accuracy = sess.run(accuracy,feed_dict={inputs:batch[0],labels: batch[1],keep_prob:1.0})#评估阶段不使用Dropout

   print("step %d, training accuracy %g"% (i,train_accuracy))



Step6. 评估模型

使用256个测试数据

print("test accuracy %g"% sess.run(accuracy,feed_dict={inputs: mnist.test.images[:256],labels: mnist.test.labels[:256],keep_prob:1.0}))#评估阶段不使用Dropout


实际输出(部分):


最后的准确率还是比较高的, 也不准备贴全部的, 没啥意义  看看就好;

评估模型的方法还有很多  acc只是其中一个;

感受:

卷积神经网络的实践确实不难,但是理论基础确实有需要深入。这里不在赘述。还要有tensorflow,matlab ,sklearn 等一系列的深度学习工具帮我们实现了关键部分(比如:激励函数,反馈,递归,dropout等等)。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,053评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,527评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,779评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,685评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,699评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,609评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,989评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,654评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,890评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,634评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,716评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,394评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,976评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,950评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,191评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,849评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,458评论 2 342

推荐阅读更多精彩内容