主要利用了MNIST图像库,代码如下
# _*_ coding:UTF-8 _*_
import numpy as np
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data # 下载并载入MMIST手写数据库(55000*28*28)55000张训练图像
mnist = input_data.read_data_sets('mnist_data',one_hot=True) # 下载回本地,里面是路径,one_hot独热码的编码(encoding)形式
input_x = tf.placeholder(tf.float32,[None,28 * 28]) / 255. # placeholder占位符
output_y = tf.placeholder(tf.int32,[None,10]) # None 表示张量(tensor)的第一个维度,可以是任何长度 输出:10个数字的标签
input_x_images = tf.reshape(input_x,[-1,28,28,1]) # 改变形状之后的输入
# 从Test(测试)数据集里选取3000个手写数据的图片和对应标签
test_x = mnist.test.images[:3000] # 图片
test_y = mnist.test.labels[:3000] # 标签
# 构建卷积神经网络
# 构建第一层卷积
conv1 = tf.layers.conv2d(
inputs=input_x_images, # 形状[28,28,1]
filters=32, # 32个过滤器,输出的深度(depth)是32
kernel_size=[5,5], # 过滤器在二维的大小是(5*5)
strides=1, # 步长是1
padding='same', # same表示输出的大小不变,因此需要在外围补零两圈
activation=tf.nn.relu # 激活函数是Relu
# 形状[28,28,32]
)
# 第一层池化(亚采样)
pool1 = tf.layers.max_pooling2d(
inputs=conv1, # 形状[28,28,32]
pool_size=[2,2], # 过滤器在二维的大小
strides=2 # 步长
# 形状[14,14,32]
)
# 第二层卷积
conv2 = tf.layers.conv2d(
inputs=pool1, # 形状[14,14,32]
filters=64, # 64个过滤器,输出的深度(depth)是64
kernel_size=[5,5], # 过滤器在二维的大小是(5*5)
strides=1, # 步长是1
padding='same', # same表示输出的大小不变,因此需要在外围补零两圈
activation=tf.nn.relu # 激活函数是Relu
# 形状[14,14,64]
)
# 第二层池化(亚采样)
pool2 = tf.layers.max_pooling2d(
inputs=conv2, # 形状[28,28,32]
pool_size=[2,2], # 过滤器在二维的大小
strides=2 # 步长
# 形状[7,7,64]
)
# 平坦化(flat)
flat = tf.reshape(pool2, [-1, 7 * 7 * 64]) # 形状[7*7*64,]
# 1024个神经元的全连接层
dense = tf.layers.dense(inputs=flat,units=1024,activation=tf.nn.relu)
# Dropout:丢弃 50% rate=0.5
dropout = tf.layers.dropout(inputs=dense,rate=0.5)
# 10神经元的全连接层,这里不用激活函数来做非线性化
logits = tf.layers.dense(inputs=dropout,units=10) #输出。形状[1,1.10]
# 计算误差(计算 Cross entropy(交叉熵),再用softmax计算百分比概率>)
loss = tf.losses.softmax_cross_entropy(onehot_labels=output_y,logits=logits)
# 用Adam 优化器来最小化误差,学习率 0.001
train_op = tf.train.AdadeltaOptimizer(learning_rate=0.001).minimize(loss)
# 精度,计算预测值和实际标签的匹配程度
# 返回(accuracy,update_op),会创建两个局部变量
accuracy = tf.metrics.accuracy(
labels=tf.argmax(output_y, axis=1),
predictions=tf.argmax(logits, axis=1),)[1]
# 创建会话
sess = tf.Session()
# 初始化变量:全局和局部,局部变量是因为在上面创建了两个局部变量
init = tf.group(tf.global_variables_initializer(),tf.local_variables_initializer())
sess.run(init)
for i in range(20000):
batch = mnist.train.next_batch(50) # 从Train(训练)数据集里取“>下一个”50个样本
train_loss,train_op_ = sess.run([loss,train_op],{input_x:batch[0],output_y:batch[1]})
if i % 100 == 0:
test_accuracy = sess.run(accuracy,{input_x:test_x,output_y:test_y})
print(i,train_loss,test_accuracy)
# print(i,"Train loss=%.4f,[Test accuracy=%.2f]")% (i,train_loss,test_accuracy)
# 测试:打印20个预测值和真实值的对
test_output = sess.run(logits,{input_x:test_x[:20]})
inferenced_y = np.argmax(test_output,1)
print(inferenced_y,'Inferenced numbers') # 推测的数字
print(np.argmax(test_y[:20],1),'Real number') # 真实的数字
最后还有一步是保存
#保存模型参数
saver = tf.train.Saver()
saver.save(sess, './model.ckpt')
会保存出来四个文件
暂时还没明白怎么调用,会的时候再更新