人工智能 - TensorFlow 框架初探 [1]

欢迎Follow我的GitHub,关注我的简书

框架:Python + TensorFlow
知识:工程配置 + HelloWorld + MNIST

本文源码的GitHub地址

TensorFlow

准备

Fork TensorFlow的工程,并下载,转换远端Git地址

git remote set-url origin https://github.com/SpikeKing/tensorflow.git

创建Python工程MachineLearningTutorial,使用 virtualenv 创建虚拟环境

pip install virtualenv
virtualenv MLT_ENV

激活或关闭的命令

source MLT_ENV/bin/activate
deactivate

安装TensorFlow的库,使用阿里云的源

pip install TensorFlow -i http://mirrors.aliyun.com/pypi/simple --trusted-host mirrors.aliyun.com

导出库的版本,及全部安装

pip freeze>requirements.txt
pip install -r requirements.txt

阿里云的源非常快

pip install -r requirements.txt -i http://mirrors.aliyun.com/pypi/simple --trusted-host mirrors.aliyun.com

如果更新失败,可能是pip的版本过低,升级pip即可

pip install --upgrade pip

Hello World

切换Python的解释器(Interpreter)

Interpreter

HelloWorld

import tensorflow as tf

hello = tf.constant('Hello, TensorFlow!')
sess = tf.Session()
print sess.run(hello)

a = tf.constant(10)
b = tf.constant(32)
print sess.run(a + b)

输出

Hello, TensorFlow!
42

避免cpu_feature_guard警告

import os
os.environ['TF_CPP_MIN_LOG_LEVEL']='2'

MNIST

路径:tensorflow/examples/tutorials/mnist/mnist_softmax.py

加载MNIST数据,默认存放于tmp文件夹,标签使用one-hot模式

mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)

one-hot的值,如下:[ 0. 0. 0. 0. 0. 0. 0. 1. 0. 0.],表示标签“7”,将类别标签转换为向量,避免标签的数值关系。

创建变量,placeholder表示输入数据、Variable表示可变参数,最终公式是y = x * W + b,y_表示真实标签(Ground Truth)

x = tf.placeholder(tf.float32, [None, 784])
W = tf.Variable(tf.zeros([784, 10]))
b = tf.Variable(tf.zeros([10]))
y = tf.matmul(x, W) + b 
y_ = tf.placeholder(tf.float32, [None, 10])

计算交叉熵,即损失函数,labels表示真实标签,logits表示预估标签

cross_entropy = tf.reduce_mean(
    tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y))

等价于

sc2 = tf.reduce_sum(-1 * (labels_ * tf.log(tf.nn.softmax(labels))), reduction_indices=[1])

梯度下降的方式,优化交叉熵

train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)

创建交互会话,初始化全部可变参数

sess = tf.InteractiveSession()
tf.global_variables_initializer().run()

每次取出100张图片,进行训练,在Session中执行train_step公式,feed_dict输入参数(placeholder),按批次(batch)训练

for _ in range(1000):
    batch_xs, batch_ys = mnist.train.next_batch(100)
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

输出一维列表最大值的索引(argmax),进行比较(equal),再讲Bool值转为Float(cast),全部求平均(reduce_mean),就是准确率的计算公式

correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

在Session中执行accuracy公式,feed_dict输入参数(placeholder),数据源是测试集

print(sess.run(accuracy, feed_dict={x: mnist.test.images,
                                    y_: mnist.test.labels}))

脚本参数是data_dir,在main函数中,则是FLAGS.data_dir,默认存放于临时目录(tmp),在 tf.app.run()中执行,FLAGS表示指定的参数,如--learning_rate 20,unparsed表示未指定的参数,随意输入的参数。

if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    parser.add_argument('--data_dir', type=str, default='/tmp/tensorflow/mnist/input_data',
                        help='Directory for storing input data')
    FLAGS, unparsed = parser.parse_known_args()
    tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)

Mac系统中,tmp存放隐藏文件,在终端的home目录中,输入open /tmp,即可打开

tmp

完整的MNIST代码,及注释

FLAGS = None  # 全局变量


def main(_):
    mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)  # 加载数据源

    x = tf.placeholder(tf.float32, [None, 784])  # 数据输入
    W = tf.Variable(tf.zeros([784, 10]))
    b = tf.Variable(tf.zeros([10]))
    y = tf.matmul(x, W) + b

    y_ = tf.placeholder(tf.float32, [None, 10])  # 标签输入

    cross_entropy = tf.reduce_mean(
        tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y))  # 损失函数
    train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)  # 优化器

    sess = tf.InteractiveSession()  # 交互会话
    tf.global_variables_initializer().run()  # 初始化变量

    # 训练模型
    for _ in range(1000):
        batch_xs, batch_ys = mnist.train.next_batch(100)
        sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

    # 验证模型
    correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
    print(sess.run(accuracy, feed_dict={x: mnist.test.images,
                                        y_: mnist.test.labels}))


if __name__ == '__main__':
    parser = argparse.ArgumentParser()  # 设置参数data_dir
    parser.add_argument('--data_dir', type=str, default='/tmp/tensorflow/mnist/input_data',
                        help='Directory for storing input data')
    FLAGS, unparsed = parser.parse_known_args()
    tf.app.run(main=main, argv=[sys.argv[0]] + unparsed)

工程配置 + HelloWorld + MNIST

OK! That's all! Enjoy it!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,711评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,932评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,770评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,799评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,697评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,069评论 1 276
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,535评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,200评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,353评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,290评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,331评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,020评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,610评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,694评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,927评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,330评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,904评论 2 341

推荐阅读更多精彩内容

  • 一.目的 类似学习开发语言的第一个代码,Hello World! 机器学习中,我们通过MNIST来学习手写输入法的...
    Coming0524阅读 6,463评论 2 8
  • 在现代社会,很多女性隆胸、穿塑性内衣等等,反而忽视了她们与生俱来的美。其实早在文艺复兴时期,欧洲各国便主张人生的目...
    futomix阅读 710评论 0 0
  • 情况有点糟糕 现在做点什么还来得及吗 一定来得及 那么 加油 一切都会好起来
    小黄穿马甲阅读 115评论 0 0
  • 题记:让我流下眼泪的不只昨夜的酒,让我依依不舍的不只你的温柔。和我在成都的街头走一走,直到所有的灯都熄灭了也不停留...
    檐铃化语阅读 1,688评论 23 25