Tensorflow简明教程(一)

导读:本文第一部分会介绍tensorflow基本的一些概念,流程图,占位符,模型的持久化等;第二部分会结合具体的案例来进行对上述的概念进行综合的理解和教程
part1:
tensorflow初识
tensorflow=tensor(张量,也可以理解为多维数组)+flow(流)
1.1计算图的概念
tensorflow的程序执行通常会分为两个阶段:
第一阶段定义变量和变量之间的运算关系

import tensorflow as tf
a=tf.constant([1.0,2.0],name="a") #定义常量
b=tf.constant([2.0,4.0],name="b")
c=a+b

第二阶段执行计算

sess =tf.Session()
sess.run(c)

计算图可以抽象理解为画板,不特殊指定的话会在默认的画板上画画,不同画板上的图案不会共享

import  tensorflow as tf 
g1=tf.Graph() #生成画板1
with  g1.as_default():
#定义变量,设置初始值为0
   v=tf.get_variable("v",shape=[1],initializer=tf.zeros_initializer) #定义了一只猫的绘制方法

g2=tf.Graph() #生成画板1
with  g2.as_default():
#定义变量,设置初始值为1
   v=tf.get_variable("v",shape=[1],initializer=tf.ones_initializer) #定义了一只狗的会话方法

with tf.Session(graph=g1)  as sess:  #打开画板1
  tf.global_variables_initializer().run()#初始化所有变量,并运行(开始画画)
  with tf.variable_scope(" ",reuse=True):
  #获得画板上的内容
    print(sess.run(tf.get_variable("v"))) #看到一只猫

with tf.Session(graph=g2)  as sess:  #打开画板2
  tf.global_variables_initializer().run()#初始化所有变量,并运行(开始画画)
  with tf.variable_scope(" ",reuse=True):
  #获得画板上的内容
    print(sess.run(tf.get_variable("v"))) #看到一只狗

1.2张量
张量可以理解为n维度数组(临摹的时候画笔的粗细),主要用来对中间结果的引用和获得计算的结果

import tensorflow as tf
a=tf.constant([1.0,2.0],name="a") #定义常量
b=tf.constant([2.0,3.0],name="b")
c=tf.add(a,b,name="add")  #定义c节点的处理步骤
print(c)
#Tensor("add:0",shape(2,),dtype=float32) #这时候并没有进行计算
#一个张量有三个属性
(1)名字属性 "add:0"   -画笔的名称
 (2)维度属性“shape(2,)” -画笔的粗细
(3)类型属性 dtype=float32  --画笔的颜料,不同成分的颜料不能混用

1.3会话session
会话执行的主要是Tensorflow的第二个阶段,根据定义好的流程进行计算
调用session有两种方法,类似正常读取文件的方法

method 1:
#创建会话
sess=tf.Session()
#执行定义好的计算
sess.run()
#关闭会话,释放资源
sess.close()

method 2: 常用自动释放资源
with  tf.Session() as sess:
  sess.run(……)

完整的通过会话计算张量

import tensorflow as tf
a=tf.constant([1.0,2.0],name="a") #定义常量
b=tf.constant([2.0,3.0],name="b")
c=a+b
with tf.Session() as sess: #运行会话得到c的计算结果[3.0,5,0]
  print(c.eval())

#with tf.Session() as sess: 只是进行运算并不会显示
#   sess.run(c)
#with tf.Session() as sess: #计算并打印结果
#   print(sess.run(c))

1.4神经网路参数和变量
神经网路参数是实现神经网路的重要部分,在tensorflow中就是用变量来更新和保存神经网路中的参数,使用变量的时候要给变量指定初始值

#生成初始值为随机正态分布的变量
weights=tf.Variable(tf.random_normal([2,3],stddev=2))
#生成初始值为0的变量
biases=tf.Variable(tf.zeros([3]))
#通过其他变量的初始值来定义变量
w2=tf.Variable(weights.initialized_value()) #生成初始值跟weights一样的变量
w2=tf.Variable(weights.initialized_value()*2)

在tensorflow中,定义变量只是定义了变量的生成过程,变量并没有被赋值,需要通过初始化来对变量进行真正的赋值

import tensorflow as tf
w1=tf.Variable(tf.random_normal([2,3],stddev=2,seed=1))
w2=tf.Variable(tf.random_normal([3,1],stddev=2,seed=1))
x=tf.constant([[0.7,0.9]])
a=tf.matmul(x,w1)
y=tf.matmul(a,w2)
with  tf.Session() as sess:
  sess.run(w1.initializer) #初始化w1
  sess.run(w2.initializer) #初始化w2
#当变量过多时候可以用下面的方式替换
  #init_op=tf.global_variables_initializer() #获得所有变量
  ###tf.global_variables() #获得存在的所有变量
  #sess.run(init_op)
  print(sess.run(y))

我们提到了张量和变量,张量是一种存放数据的结构,变量的输出结果就是张量,可以理解为变量是一种特殊的张量;与张量一样变量也有三个属性
名字,维度,类型,其中维度可以进行修改(通常不会修改),类型一旦指定就不能修改(默认为tf.flaot64)

import tensorflow as tf
w1=tf.Variable(tf.random_normal([2,3],stddev=2,seed=1),name='w1')
#数据类型错误
w2=tf.Variable(tf.random_normal([2,3],stddev=2,seed=1),dtype=tf.float64,name='w2')
w1.assign(w2)   #只是定义关系并没有执行
#维度错误
w2=tf.Variable(tf.random_normal([2,2],stddev=2,seed=1),name='w2')
tf.assign(w1,w2)  #会报维度不匹配的错误
tf.assign(w1,w2,validate_shape=False)  #允许更改维度,会被正常执行

part2:
神经网络训练过程和简单实现

2.1神经网络算法示意图

神经网络反向传播优化.png

2.2一些新的名词

batch_size:由于神经网络一次训练是选取部分数据进行训练的,需要指定这部分数据的大小(一次训练多少行的数据)
数据量小的时候是可以一次性使用全部数据,数据量大的时候这样会造成内存溢出
steps or train_steps:表示训练轮数
tf.placeholder() #定义输入数据的格式,类似函数的形参
learning_rate #学习率

2.3定义完整神经网络参数

神经网络的训练大致分为下面三个步骤
1.定义神经网络的结构和前项传播算法的输出结果
2.定义损失函数和选择反向传播算法
3.定义会话,并在训练数据上不断优化反向传播算法

import tensorflow as tf 
from numpy.random import RandomState
import matplotlib.pyplot as plt 
#定义训练数据的大小
batch_size=8
#定义神经网络参数
w1=tf.Variable(tf.random_normal([2,3],stddev=2,seed=1),name='w1')
w1=tf.Variable(tf.random_normal([3,1],stddev=2,seed=1),name='w2')
#定义神经网络接收参数的格式
x=tf.placeholder(tf.float32,shape=(None,2),name='x-input') #定义输入形参,两列
y_=tf.placeholder(tf.float32,shape=(None,1),name='y-input') #定义输出形参,一列
#定义向前传播的算法过程
a=tf.matmul(x,w1)
y=tf.matmul(y,w2)
y=tf.sigmod(y)
#定义损失函数和反向传播算法
cross_entropy=-tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0))+(1-y_)*tf.log(tf.clip_by_value(1-y,1e-10,1.0))) #分类算法常用的损失函数
    #反向传播算法
train_step=tf.train.AdamOptimizer(0.001).minimize(cross_entropy)
#生成自定义数据集大大小
rdm=RandomState(1)
dateset_size=128
X=rdm.rand(dateset_size,2) #生成128行两列矩阵
y=[[int(x1+x2)] for (x1,x2) in X] #数据示意见下图
with  tf.Session() as sess:
#初始化并运行所有变量
  init_op=tf.global_variables_initializer()
  sess.run(init_op)
#设定训练轮数
STEPS=5000
for i in range(STEPS):
  start =(i*batch_size)%dataset_size
  end=min(start+batch_size,dataset_size)
  #输入参数,执行训练流程
  sess.run(train_step,feed_dict=feed_dict{x:X[start:end],y_:Y[start:end]})
  #每隔一段时间,计算所有数据的交叉熵
  if  i%1000==0:
    total_cross_entropy=sess.run(cross_entropy,feed_dict={x:X,y_:Y})
    print("经过%s次训练现在的误差是%"%(i,total_cross_entropy))
生成数据示意图.png
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容

  • 关于 TensorFlow TensorFlow™ 是一个采用数据流图(data flow graphs),用于数...
    Bobby0322阅读 77,565评论 2 55
  • (第一部分 机器学习基础)第01章 机器学习概览第02章 一个完整的机器学习项目(上)第02章 一个完整的机器学习...
    SeanCheney阅读 7,662评论 3 44
  • 家里只要有个还在上学的孩子,你的生活作息和所有的活动安排就必须以孩子为中轴线来进行。每天过的就像打仗一样,紧张忙碌...
    竹林吉祥老爸阅读 341评论 0 2
  • 晶莹剔透的雪花为城堡穿上洁白纱裙,来方特赏白雪纷飞,圆你一个梦幻童话梦!想穿越到《熊出没之雪岭熊风》里的唯美场景吗...
    Ailsa丶阅读 87评论 0 0
  • 所谓祖宗十八代是指自己上下九代的宗族成员。 上按次序称谓: 生己者为父母, 父之父为祖, 祖父之父为曾祖, 曾祖之...
    洞仙子阅读 2,313评论 0 0