保存一个简单的会话
import tensorflow as tf
v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
saver = tf.train.Saver()
with tf.Session() as sess:
init_op = tf.initialize_all_variables()
sess.run(init_op)
saver.save(sess, "D:/python/ten_test/me/model.ckpt")
运行后在本地的me文件夹中多了以下四个文件:
具体这几个文件的作用不予赘述,网上都可以搜到。
读取该会话
import tensorflow as tf
v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
saver = tf.train.Saver()
with tf.Session() as sess:
saver.restore(sess, "D:/python/ten_test/me/model.ckpt")
print(sess.run(result))
如此的运行结果为:
可知,在这里,取出来的会话内容为对v1和v2的初始化操作。
保存变量
在使用滑动平均值的时候,我们需要获取影子变量的取值,这时就涉及到了经过运算以后保存一个变量,然后在需要的时候把该变量加载读取出来的问题。
需要注意的时,由于我们需要获取变量的值,故在保存sess之前需要让sess执行一次调用变量的操作。
import tensorflow as tf
v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
saver = tf.train.Saver()
with tf.Session() as sess:
init_op = tf.initialize_all_variables()
sess.run(init_op)
sess.run(v1)
sess.run(v2)
saver.save(sess, "D:/python/ten_test/me/model.ckpt")
读取变量
v1 = tf.Variable(tf.constant(0., shape=[1]), name="other_y")
v2 = tf.Variable(tf.constant(0., shape=[1]), name="other_x")
saver = tf.train.Saver({"v1": v1, "v2": v2})
with tf.Session() as sess:
saver.restore(sess, "D:/python/ten_test/me/model.ckpt")
print(sess.run([v1, v2]))
运行结果:
可知,从加载后的sess中获取变量类似于tf.assign的赋值操作,将加载出来的变量值赋值于一个已有变量。与该变量的对应关系通过Saver字典的对应关系得出。
保存整个图
我们知道,在进行模型的存储时只需要获得之前所需要的训练神经网络结果,所以需要把所有的神经网络训练过程和结果进行封装,调用时只使用训练结果即可,所以我么可以把数据操作等都进行封装。
如本例,我们需要知道2.0+1.0的结果是什么,所以也应该把加法操作一起封装,最后只加载运算结果即可。
import tensorflow as tf
v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
saver = tf.train.Saver()
with tf.Session() as sess:
init_op = tf.initialize_all_variables()
sess.run(init_op)
sess.run(result)
saver.save(sess, "D:/python/ten_test/me/model.ckpt")
获取图
import tensorflow as tf
saver = tf.train.import_meta_graph("D:/python/ten_test/me/model.ckpt.meta")
with tf.Session() as sess:
saver.restore(sess, "D:/python/ten_test/me/model.ckpt")
print(sess.run(tf.get_default_graph().get_tensor_by_name("add:0")))
运行结果:
保存的内容不只有变量,还有关于变量的操作,所以保存的是整个图的内容,获取的时候也应该用图来初始化saver:
在初始化saver时的参数为.ckpt.meta,是因为该文件为保存计算图的结构。
在sess中获取Tensor时的命名含义为该图中第0个add操作,如果想要自定义张量名称,可以在初始化result时为其加上名称:
result = tf.Variable(v1 + v2, name='result')
此时获取结果的相应代码就应改为:
tf.get_default_graph().get_tensor_by_name("result:0")
保存结果
上述结果保存的为整个图的内容,包括一些不需要的变量和参数,但是有时不需要一些额外的信息,我们只需要将计算的结果保存为常量然后载入文件即可。
所以我们使用convert_variables_to_constants函数,将结果保存为常量后写入二进制文件,保存的原理为将图中的一个节点保存,节点中的张量自然也会被一同保存
import tensorflow as tf
from tensorflow.python.framework import graph_util
v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1')
v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2')
result = v1 + v2
with tf.Session() as sess:
init_op = tf.initialize_all_variables()
sess.run(init_op)
graph_def = tf.get_default_graph().as_graph_def()
output_graph_def = graph_util.convert_variables_to_constants(
sess, graph_def, ['add']
)
#可以通过输出查看节点内容
#print(output_graph_def)
with tf.gfile.GFile("D:/python/ten_test/graphs/combined_model.pb", "wb") as f:
f.write(output_graph_def.SerializeToString())
读取变量
import tensorflow as tf
with tf.Session() as sess:
with tf.gfile.GFile("D:/python/ten_test/graphs/combined_model.pb", "rb") as f:
string_in = f.read()
graph_def = tf.GraphDef()
graph_def.ParseFromString(string_in)
result = tf.import_graph_def(graph_def, return_elements=["add:0"])
print(sess.run(result))
运行结果