机器学习Tensorflow笔记2:超详细剖析MNIST实验

上一篇文章我们描述了MNIST实验的过程,但是我们做完实验之后,并没有学到什么太大的东西,只知道Tensorflow的具体使用而已,所以本文讲解这个实验的具体内容,详细剖析MNIST实验,如果先看本文再做MNIST实验可能也会更加深刻。
《机器学习Tensorflow笔记1:Hello World到MNIST实验》

文件说明

这个压缩包,是一个手写数字识别库,世界上最权威的,美国邮政系统开发的,手写内容是0-9的内容,手写内容采集于美国人口调查局的员工和高中生,我们先从MNIST的官网开始,下载这个四个文件,这四个文件的具体说明:

There are 4 files:
train-images-idx3-ubyte: training set images 
train-labels-idx1-ubyte: training set labels 
t10k-images-idx3-ubyte:  test set images 
t10k-labels-idx1-ubyte:  test set labels

The training set contains 60000 examples, and the test set 10000 examples.

MINIST实验包含了四个文件,其中train-images-idx3-ubyte是60000个图片样本,是由,train-labels-idx1-ubyte是这60000个图片对应的数字标签,t10k-images-idx3-ubyte是用于测试的样本,t10k-labels-idx1-ubyte是测试样本对应的数字标签。

TRAINING SET LABEL FILE (train-labels-idx1-ubyte):
[offset] [type]          [value]          [description] 
0000     32 bit integer  0x00000801(2049) magic number (MSB first) 
0004     32 bit integer  60000            number of items 
0008     unsigned byte   ??               label 
0009     unsigned byte   ??               label 
........ 
xxxx     unsigned byte   ??               label
The labels values are 0 to 9.

从说明可以看到,该文件是二进制内容,其中0-4位(magic number), 它是一个文件协议的描述,这个值一定是2049,读取文件信息的时候可以对他进行验证,避免该文件是存在问题的,做实验当然也可以不用考虑;4-8位是描述了该文件一共有60000个样本数据;从9开始到最后,每一位代表该数据集合的数字信息。

TRAINING SET IMAGE FILE (train-images-idx3-ubyte):
[offset] [type]          [value]          [description] 
0000     32 bit integer  0x00000803(2051) magic number 
0004     32 bit integer  60000            number of images 
0008     32 bit integer  28               number of rows 
0012     32 bit integer  28               number of columns 
0016     unsigned byte   ??               pixel 
0017     unsigned byte   ??               pixel 
........ 
xxxx     unsigned byte   ??               pixel
Pixels are organized row-wise. Pixel values are 0 to 255. 0 means background (white), 255 means foreground (black).
TEST SET LABEL FILE (t10k-labels-idx1-ubyte):
[offset] [type]          [value]          [description] 
0000     32 bit integer  0x00000801(2049) magic number (MSB first) 
0004     32 bit integer  10000            number of items 
0008     unsigned byte   ??               label 
0009     unsigned byte   ??               label 
........ 
xxxx     unsigned byte   ??               label
The labels values are 0 to 9.
TEST SET IMAGE FILE (t10k-images-idx3-ubyte):
[offset] [type]          [value]          [description] 
0000     32 bit integer  0x00000803(2051) magic number 
0004     32 bit integer  10000            number of images 
0008     32 bit integer  28               number of rows 
0012     32 bit integer  28               number of columns 
0016     unsigned byte   ??               pixel 
0017     unsigned byte   ??               pixel 
........ 
xxxx     unsigned byte   ??               pixel
Pixels are organized row-wise. Pixel values are 0 to 255. 0 means background (white), 255 means foreground (black). 

文件解析

既然我们已经知道了该文件的具体内容描述,那么我们就可以开始对文件进行解析,看看具体的内容。我们下载下来的文件是.gz后缀的,表明是一个压缩文件,我们设计代码的时候,需要考虑对文件进行解压。

#!/usr/bin/python
# -*- coding: UTF-8 -*-
import gzip
import sys
import struct

train_images = "MNIST_data/train-images-idx3-ubyte.gz"
train_labels = "MNIST_data/train-labels-idx1-ubyte.gz"
t10k_images = "MNIST_data/t10k-images-idx3-ubyte.gz"
t10k_labels = "MNIST_data/t10k-labels-idx1-ubyte.gz"


def read_labels(filename):
    labels = []
    with gzip.open(filename) as bytestream:
        index = 0
        buf = bytestream.read()
        bytestream.close()
        # 根据MINIST文件的描述,文件开始是用于校验的数字,`integer`格式,占用4个字节,位于0-4位置
        # 第二个描述文件的内容数量,`integer`格式,占用4个字节,位置4-8位置
        magic, numberOfLabels = struct.unpack_from('>II', buf, index)
        print(magic)
        print(numberOfLabels)
        # index += struct.calcsize('>II') #这里的结果是 +=8,为了直观,就直接填写8
        # 因为magic, numberOfLabels 占据前面8个字节,所以把下标移动到第 8 位,开始读取数字标签的内容
        index = 8
        while index < numberOfLabels:
            # 根据MINIST文件的描述,labels的数字是`unsigned byte`格式,占用一个字节,所以这里填写`B`
            num = int(struct.unpack_from('B', buf, index)[0])
            labels.append(num)
            # index += struct.calcsize('B')
            # 移动到下一个光标
            index += 1
    return labels


def read_images(filename, labels):
    # 把文件解压成字节流
    with gzip.open(filename) as bytestream:
        index = 0
        buf = bytestream.read()
        bytestream.close()
        # 根据MINIST文件的描述,文件开始是用于校验的数字,`integer`格式,占用4个字节,位于0-4位置
        # 第二个描述文件的内容数量,`integer`格式,占用4个字节,位置4-8位置
        magic, numberOfImages, rows, columns = struct.unpack_from('>IIII', buf, index)
        print(magic)
        print(numberOfImages)
        print(rows)
        print(columns)
        # index += struct.calcsize('>IIII') #这里的结果是 +=16,为了直观,就直接填写16
        # 因为magic, numberOfImages, rows, columns 占据前面16个字节,所以把下标移动到第 16 位,开始读取数字标签的内容
        index = 16

        for i in xrange(numberOfImages):
        # for i in xrange(5):
            # 打印对应的数字标签
            print(labels[i])
            for x in xrange(rows):
                for y in xrange(columns):
                    num = int(struct.unpack_from('B', buf, index)[0])
                    if num > 100:
                        sys.stdout.write(str(num)+" ")
                    elif num > 50:
                        sys.stdout.write(str(num)+"  ")
                    else:
                        sys.stdout.write(str('0   '))
                    index += 1
                sys.stdout.write(str('\n'))
                sys.stdout.write(str('\n'))
            sys.stdout.flush()
    return


# 解析labels的内容,train_labels包含了60000个数字标签,返回60000个数字标签的数组
labels = read_labels(train_labels)
print(labels)
read_images(train_images, labels)

如果我们通过print(labels)打印labels的内容,就会看到,这就是一个包含了60000个数字的数组,数组都是从0~9,这个数组和images的图片样本是一一对应的。

image.png

运行代码,我们截图第一张图片样本出来,第一张图片的文本是5,图片的每个像素点是无标记数字(0~254)

image.png

如果把像素写成图片,图片是这样的:
image.png

更多的图片,这里就不展开介绍怎么写成图片文件,提供代码自行研究:


image.png
from PIL import Image
import struct
import gzip

def read_image(filename):
    with gzip.open(filename) as bytestream:
        index = 0
        buf = bytestream.read()
        bytestream.close()
        magic, images, rows, columns = struct.unpack_from('>IIII', buf, index)
        index += struct.calcsize('>IIII')
        for i in xrange(images):
            image = Image.new('RGB', (columns, rows))
            for x in xrange(rows):
                for y in xrange(columns):
                    image.putpixel((y, x), int(struct.unpack_from('>B', buf, index)[0]))
                    index += struct.calcsize('>B')
            print 'save ' + str(i) + 'image'
            # 请手动创建test文件夹,图片文件要写入文件夹中
            image.save('test/' + str(i) + '.png')
    return
read_image("MNIST_data/train-images-idx3-ubyte.gz")

回到Tensorflow

从上述,我们已经知道了这几个文件的具体内容,那么我们就回到Tensorflow,看看Tensorflow是如何训练模型的

用自己的方式实现
#!/usr/bin/python
# -*- coding: UTF-8 -*-
import gzip
import sys
import struct

train_images_file = "MNIST_data/train-images-idx3-ubyte.gz"
train_labels_file = "MNIST_data/train-labels-idx1-ubyte.gz"
t10k_images_file = "MNIST_data/t10k-images-idx3-ubyte.gz"
t10k_labels_file = "MNIST_data/t10k-labels-idx1-ubyte.gz"


def read_labels(filename):
    labels = []
    with gzip.open(filename) as bytestream:
        index = 0
        buf = bytestream.read()
        bytestream.close()
        # 根据MINIST文件的描述,文件开始是用于校验的数字,`integer`格式,占用4个字节,位于0-4位置
        # 第二个描述文件的内容数量,`integer`格式,占用4个字节,位置4-8位置
        magic, numberOfLabels = struct.unpack_from('>II', buf, index)
        print(magic)
        print(numberOfLabels)
        # index += struct.calcsize('>II') #这里的结果是 +=8,为了直观,就直接填写8
        # 因为magic, numberOfLabels 占据前面8个字节,所以把下标移动到第 8 位,开始读取数字标签的内容
        index = 8
        while len(labels) < numberOfLabels:
            # 根据MINIST文件的描述,labels的数字是`unsigned byte`格式,占用一个字节,所以这里填写`B`
            num = int(struct.unpack_from('B', buf, index)[0])
            tmp =[0,0,0,0,0,0,0,0,0,0]
            tmp[num] = 1
            labels.append(tmp)
            # index += struct.calcsize('B')
            # 移动到下一个光标
            index += 1
    return labels


def read_images(filename, labels):
    images = []
    # 把文件解压成字节流
    with gzip.open(filename) as bytestream:
        index = 0
        buf = bytestream.read()
        bytestream.close()
        # 根据MINIST文件的描述,文件开始是用于校验的数字,`integer`格式,占用4个字节,位于0-4位置
        # 第二个描述文件的内容数量,`integer`格式,占用4个字节,位置4-8位置
        magic, numberOfImages, rows, columns = struct.unpack_from('>IIII', buf, index)
        print(magic)
        print(numberOfImages)
        print(rows)
        print(columns)
        # index += struct.calcsize('>IIII') #这里的结果是 +=16,为了直观,就直接填写16
        # 因为magic, numberOfImages, rows, columns 占据前面16个字节,所以把下标移动到第 16 位,开始读取数字标签的内容
        index = 16

        for i in xrange(numberOfImages):
            # 打印对应的数字标签
            image = []
            for x in xrange(rows):
                row = []
                for y in xrange(columns):
                    num = int(struct.unpack_from('B', buf, index)[0])
                    image.append(float(num/255.0))
                    index += 1
            images.append(image)
    return images


# 解析labels的内容,train_labels包含了60000个数字标签,返回60000个数字标签的数组
train_labels = read_labels(train_labels_file)
# print(labels)
train_images = read_images(train_images_file, train_labels)

test_labels = read_labels(t10k_labels_file)
# print(labels)
test_images = read_images(t10k_images_file, test_labels)

import tensorflow as tf
x = tf.placeholder("float", [None,784.])
W = tf.Variable(tf.zeros([784.,10.]))
b = tf.Variable(tf.zeros([10.]))
y = tf.nn.softmax(tf.matmul(x,W) + b)
y_ = tf.placeholder("float")
cross_entropy = -tf.reduce_sum(y_*tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
for i in range(600):
    print(i)
    batch_xs = train_images[100*i:100*i+100]
    batch_ys = train_labels[100*i:100*i+100]
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print sess.run(accuracy, feed_dict={x: test_images, y_: test_labels})

运行代码,稍等几分钟就可以看到结果,正确率为0.897

但是在太慢了,效率太低了,主要是组合图片数组的时候太慢了,花了大概三分钟,我们通过引入NumPy来提高处理效率,参考官方例子进行改造。

#!/usr/bin/python
# -*- coding: UTF-8 -*-
import gzip
import sys
import struct
import numpy

train_images_file = "MNIST_data/train-images-idx3-ubyte.gz"
train_labels_file = "MNIST_data/train-labels-idx1-ubyte.gz"
t10k_images_file = "MNIST_data/t10k-images-idx3-ubyte.gz"
t10k_labels_file = "MNIST_data/t10k-labels-idx1-ubyte.gz"

def read32(bytestream):
    # 由于网络数据的编码是大端,所以需要加上>
    dt = numpy.dtype(numpy.int32).newbyteorder('>')
    data = bytestream.read(4)
    return numpy.frombuffer(data, dt)[0]

def read_labels(filename):
    with gzip.open(filename) as bytestream:
        magic = read32(bytestream)
        numberOfLabels = read32(bytestream)
        labels = numpy.frombuffer(bytestream.read(numberOfLabels), numpy.uint8)
        data = numpy.zeros((numberOfLabels, 10))
        for i in xrange(len(labels)):
            data[i][labels[i]] = 1
        bytestream.close()
    return data

def read_images(filename):
    # 把文件解压成字节流
    with gzip.open(filename) as bytestream:
        magic = read32(bytestream)
        numberOfImages = read32(bytestream)
        rows = read32(bytestream)
        columns = read32(bytestream)
        images = numpy.frombuffer(bytestream.read(numberOfImages * rows * columns), numpy.uint8)
        images.shape = (numberOfImages, rows * columns)
        images = images.astype(numpy.float32)
        images = numpy.multiply(images, 1.0 / 255.0)
        bytestream.close()
    return images

train_labels = read_labels(train_labels_file)
train_images = read_images(train_images_file)
test_labels = read_labels(t10k_labels_file)
test_images = read_images(t10k_images_file)

import tensorflow as tf
x = tf.placeholder("float", [None, 784.])
W = tf.Variable(tf.zeros([784., 10.]))
b = tf.Variable(tf.zeros([10.]))
y = tf.nn.softmax(tf.matmul(x, W) + b)
y_ = tf.placeholder("float")
cross_entropy = -tf.reduce_sum(y_ * tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
for i in range(600):
    batch_xs = train_images[100 * i:100 * i + 100]
    batch_ys = train_labels[100 * i:100 * i + 100]
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
# 提高准确度,训练多一次
for i in range(600):
    batch_xs = train_images[100 * i:100 * i + 100]
    batch_ys = train_labels[100 * i:100 * i + 100]
    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})

correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print sess.run(accuracy, feed_dict={x: test_images, y_: test_labels})

通过测试,准确度大概是在0.9041,耗时:2.4秒

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容