tensorflow示例学习--壹 mnist_softmax.py

转载请注明出处。

一、简介:

1、属于图像识别,作为tensorflow的入门例程,利用全连接神经网络训练mnist集。本示例旨在引导我们编写一个入门程序。
2、模型
     本例使用一个简单的神经网络,神经元结构为784x10。利用梯度下降法进行学习。
3、程序流程
     本例的程序流图基本即是tensorflow的工作顺序,以后无论程序多复杂,大体上还是这样的顺序,只是多增加些功能罢了。
程序流图.png

二、示例代码

源:/tensorflow/tensorflow/examples/tutorials/mnist/mnist_softmax.py
#1.导入python必须的模块,包括了input_data.py用于下载训练测试集等
from __future__ import absolute_import
from __future__ import division
from __future__ import print_function

import argparse
import sys

from tensorflow.examples.tutorials.mnist import input_data

import tensorflow as tf

FLAGS = None

#2.主函数
def main(_):
  # 2.1.读取训练测试数据
  mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)

  # 2.2.创建模型
  x = tf.placeholder(tf.float32, [None, 784])
  W = tf.Variable(tf.zeros([784, 10]))
  b = tf.Variable(tf.zeros([10]))
  y = tf.matmul(x, W) + b
  y_ = tf.placeholder(tf.float32, [None, 10])

  # 损失函数
  cross_entropy = tf.reduce_mean(
      tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y))
  #训练方法
  train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
  
  #2.2.开启会话
  #初始化
  sess = tf.InteractiveSession()
  tf.global_variables_initializer().run()
  # 训练
  for _ in range(1000):
    batch_xs, batch_ys = mnist.train.next_batch(100)
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

  # 测试
  correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
  accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
  print(sess.run(accuracy, feed_dict={x: mnist.test.images,
                                      y_: mnist.test.labels}))
#3.py文件入口
if __name__ == '__main__':
  parser = argparse.ArgumentParser()
  parser.add_argument('--data_dir', type=str, default='/tmp/tensorflow/mnist/input_data',
                      help='Directory for storing input data')
  FLAGS, unparsed = parser.parse_known_args()
  tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)

三、API接口

3.1 tf.placeholder(dtype,shape=None,name=None)
    说明:1、占位符,一般用于接收输入数据。官方说能减少内存使用,提高速度,未看源码,应是优化内存,或调用线程实现。
         2、使用数据时必需在'Session.run()','Tensor.eval()','Operation.run()'中使用'feed_dict'。

    例:x=tf.placeholder(tf.float32,shape=(1024,1024))
        x为一个1024×1024,32位浮点类型的空间

       x = tf.placeholder(tf.float32, [None, 784])
       x为一个0维度不知道多少,1维度为784的,32位浮点类型的空间。
3.2 tf.reduce_mean(input_tensor,axis=None,Keep_dims=False,name=None,reduction_indices=None)
    说明:1、计算一个tensor在相应维度下元素的平均值。
         2、如果'axis'并未明确,则计算该tensor所有维度下元素的平均值,那么只有一个元素返回。
         3、如果'keep_dims'为True,则保留维度信息,丢失的维度变为1。
         4、例程中并未指定axis,说明是求所有样本打损失和。
    例:x=tf.Variable([[1.,2.,4.,3.,1.],[1.,5.,2.,3.,1.],[8.,1.,1.,2.,3.]])
       tf.reduce_mean(x) ==> 2.53 shape=()
       tf.reduce_mean(x,0) ==> [3.33,2.66,2.33,2.66,1.66] shape=(5,)
       tf.reduce_mean(x,1) ==> [2.20,2.40,3. ] shape=(3,)
       tf.reduce_mean(x,keep_dims=Ture) ==> [2.53] shape=(1,1)
       tf.reduce_mean(x,0,keep_dims=Ture) ==> [[3.33,2.66,2.33,2.66,1.66]] shape=(1,5)
       tf.reduce_mean(x,1,keep_dims=Ture) ==> [[2.20],[2.40],[3.] ] shape=(3,1)
3.3 tf.equal(x,y,name=None) 
    说明:1、x,y必需是tensor并且类型维度一致,该函数判断x,y对应元素是否相等,如果是返回True,否则返回False。
    例:x=tf.Varialbe([1,2,3,4,5])
       y=tf.Varialbe([1,3,4,4,6])
       tf.equal(x,y) ==> [True, False,False,True,False]
3.4 tf.argmax(input,axis=None,name=None,dimension=None)
    说明:1、返回对应axis在大值所在的索引。
         2、若input为向量,axis=0。
         3、返回类型为tensor, int64。
    例:x=tf.Variable([[1.,2.,4.,3.,1.],[1.,5.,2.,3.,1.],[8.,1.,1.,2.,3.]])
        tf.argmax(x,0)=[2,1,0,0,2]
        tf.argmax(x,1)=[2,1,0]
3.5 tf.cast(x,dtype,name=None)
    说明:1、转换x类型到dtype类型。
    例:a=tf.Variable([1.8,2.2])
        tf.cast(a, tf.int32) ==> [1, 2]  # dtype=tf.int32
3.6 tf.nn.softmax_cross_entropy_with_logits(_sentinel=None,labels=None,logits=None,dim=-1,name=None)
    说明:1、计算'logits'和'labels'之间的softmax交叉熵,返回与'logits'的'batch_size'长的一维张量。
         2、'_sentinel'是内部变量,不要使用。
         3、'dim'默认为-1,即最末的尺度。
         4、等价于'-tf.reduce_sum(y_*tf.log(tf.nn.softmax(y)))',但这可能导致计算的不稳定,推荐使用3.6集成的函数。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,176评论 5 469
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,190评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,232评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,953评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,879评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,177评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,626评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,295评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,436评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,365评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,414评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,096评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,685评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,771评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,987评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,438评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,032评论 2 341

推荐阅读更多精彩内容

  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,279评论 25 707
  • 恩,就是子视图保持位置不变,父视图宽高改变让子视图出现父视图里面做出动画
    木_风阅读 725评论 0 0
  • 这是自己写的一些常用的代码块 代码块的github网址下载
    青春flame阅读 179评论 0 0
  • 前些天我去一单位办事,意外碰到了一位高一同学,这位同学如今主要负责我要办的事情。 意外碰到老同学,有点欣喜,又有点...
    大地_行者阅读 741评论 0 1
  • 1、客户最主要是为了选购物品,所以店面的“颜值”很重要! 而想要让店从商场里跳脱出来,产品的“长相”咱控制不了,但...
    木南开阅读 206评论 0 0