前言
本文章是一篇源于Tensorflow里面Programmer's Guide的Variables: Creation, Initialization, Saving, and Loading的教程。这也算是自己在学习tensorflow里面的一些感悟吧,所以就记录下来与大家分享并作为回忆录。在tensorflow官网的地址:Variables: Creation, Initialization, Saving, and Loading。
在我们使用Tensorflow的时候,都需要创建变量、常量、读取数据,那问题是怎么在Tensorflow里面创建变量呢?这就变成一个很基础的问题了。
创建
1. 变量
import tensorflow as tf
weights = tf.Variable(
tf.random_normal([2, 2, 3], mean=0, stddev=0.35),
name="weights")
上面代码的意义是创建一个weights的变量(4-D张量)其shape为[2, 2, 3]并命名为weights。这个张量通过random_normal(mean, stddev)
随机生成,数据符合高斯分布(期望值:mean
,方差:stddev
)。当然也有其他的产生随机数的函数:
tf.random_uniform() # 均匀分布的随机数
tf.random_multinomial() # 多重高斯分布的随机数
tf.random_gamma() # gamma的随机数
# .... other random function
可能有人问:为什么会符合某种分布的随机数啊?不可以随便一个随机数生成器这样来生成随机数吗?
个人认为是可以的,但至于为什么有这些乱七八糟的符合某种分布的随机数呢。个人认为现在很多优化算法都只能将模型训练成Local minimum,不一定能产生Global minimum。当中的一个原因是因为初始的数据,对于某一种模型他的Global minimum的附近值都比较符合某种分布,这样的话我们用这些数据做初始值的话会比较容易得到Global minimum。又或者这些数据是有某种约束,那么我就需要用这个分布来产生随机数。
2. 常量
这里就直接上代码了,因为比较直观
# 创建一个2-D tensor,当中的值用-1.0来填充,shape为[2, 3]
tf.constant(value=-1.0, shape=[2, 3], name='c')
# => [[-1. -1. -1.] [-1. -1. -1.]]
# 创建一个全为1的2-D tensor,当中的值用1来填充
tf.ones([2, 3], tf.int32)
# 创建一个全为1的2-D tensor,当中的值用9来填充
tf.fill(dim=[2, 3], value=9)
当然啦,我这里只是展示部分api的使用。假如你有特殊要求的话,那就上Tensorflow去找找相关的内容吧。Tensorflow的常量,序列,随机数张量。
3. 读取数据
在训练模型的时候,我们都需要用到训练数据对模型进行训练(喂养feed)。那这里就涉及到读取数据啦。读取数据有很多种形式,而且也有很多重要的内容。在这里我就不展开讲述了。我会找个机会详细的讲讲各种读取数据的方式。这里我就讲述其中一样比较常见的。那就是tf.placeholder()
。
x = tf.placeholder(dtype=tf.float32, shape=[2, 3], name='x')
....
sess = tf.Session()
train_data = np.random.rand(2, 3)
sess.run([loss], dict_feed={x: train_data})
这里我就定义了一个placehoder给模型直接喂养数据来训练啦。是不是很简单呢?哈哈 最简单通常也是效率最一般的做法,那比较高效的方法当然就是迟点再说啦。
存储与恢复
对于一个模型的训练过程,我们通常都要经过漫长的等待。而等待期间...突然断电了。我训练一整天的模型还没出来最后就停了,是不是很绝望呢?又或者我们在训练的过程当中想保存最优的那个参数模型,而不是最后的训练模型参数。所以我们都需要在训练过程当中对模型参数进行保存和恢复操作。
其实这里也都是很简单的内容啦。所以我就直接贴代码就可以理解了。
# -*- coding: utf-8 -*-
import tensorflow as tf
import os
v1 = tf.Variable(tf.random_normal([2, 2], mean=1, stddev=0.2), name="v1")
v2 = tf.Variable(tf.random_normal([3, 3], mean=3, stddev=0.5), name="v2")
init_op = tf.global_variables_initializer()
# 创建saver对象
saver = tf.train.Saver()
with tf.Session() as sess:
sess.run(init_op)
print(sess.run(v1))
print("\n")
print(sess.run(v2))
if not os.path.exists('./tmp'):
print("create the directory: ./tmp")
os.mkdir("./tmp")
# 保存好模型参数
save_path = saver.save(sess, "./tmp/model.ckpt")
print("Model saved in file: %s" % save_path)
with tf.Session() as sess1:
# 恢复模型参数到sess1当中
saver.restore(sess1, "./tmp/model.ckpt")
print("Model restored")
print(sess1.run(v1))
可见里面保存参数的代码就是save_path = saver.save(sess, "./tmp/model.ckpt")
,恢复参数的代码是saver.restore(sess1, "./tmp/model.ckpt")
。
这大概就是今天分享的内容啦。是不是很简单呢?哈哈。因为是基础篇嘛。好好享受weekend吧各位!