(三)Tensorflow 搭建自己的神经网络 (莫烦 Python 教程)

本教程资料来自于:Tensorflow 搭建自己的神经网络 (莫烦 Python 教程)

https://www.bilibili.com/video/av16001891?from=search&seid=6106673353000958940

什么是过拟合?(what is overfitting)

机器学习的过拟合 = 人生当中的自负
不能表达除了训练数据以外的数据

解决办法:

方法1:增加数据量


方法2:利用正则化 L1,L2 .. Regularization

其他的L3,L4,都是依次将后面的W换成3次方,4次方

方式3:(专门用于神经网络的正则化)Dropout regularizatiom


在训练的时候我们随机的忽略掉一些神经元和神经的链接使得神经网络边得不完整

用一个不完整的神经网络训练一次,到了第二次再用一个随机不完整的神经网络进行训练

Dropout每一次的训练都会使得每一次训练的结果不依赖于其中某一部分特定的神经元。

例如L1,L2,等等过度训练的参数会很大L1,L2...会惩罚这些参数。而Dropout(去掉)的方式,是从根本上无法依赖于神经网络的结构。

17、Dropout 解决 Overfitting

Tensorflow提供了Dropout的功能

解决问题:[flake8]E501:line too long (92 > 79 characters)

资料:http://www.bubuko.com/infodetail-1834590.html

然后就没有报错啦!!!开心!!

import tensorflow as tf
from sklearn.datasets import load_digits  # 手写识别数据集
from sklearn.cross_validation import train_test_split
from sklearn.preprocessing import LabelBinarizer

import os
os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'

# load data
digits = load_digits()
X = digits.data  # 从0到9的数字data
y = digits.target
y = LabelBinarizer().fit_transform(y)  # 向量one-hot编码
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=.3)


def add_layre(inputs, in_size, out_size, layer_name, activation_function=None):
    # add one more layer and return the output of this layer
    Weights = tf.Variable(tf.random_normal([in_size, out_size]))
    biases = tf.Variable(tf.zeros([1, out_size]) + 0.1)
    Wx_plus_b = tf.matmul(inputs, Weights) + biases
    """ Dropout Regularization """
    Wx_plus_b = tf.nn.dropout(Wx_plus_b, keep_prob)

    if activation_function is None:
        outputs = Wx_plus_b
    else:
        outputs = activation_function(Wx_plus_b)
    tf.summary.histogram(layer_name+'/outputs', outputs)  # 1
    return outputs


# define placeholder for inputs to network
keep_prob = tf.placeholder(tf.float32)  # 保持多少结果不被Drop掉
xs = tf.placeholder(tf.float32, [None, 64])  # 输入64个单位的向量
ys = tf.placeholder(tf.float32, [None, 10])  # 输出10个单位的向量

# add output layer
l1 = add_layre(xs, 64, 100, 'l1', activation_function=tf.nn.tanh)  # 隐藏层 输出:100为了过拟合
prediction = add_layre(l1, 100, 10, 'l2', activation_function=tf.nn.softmax)  # 输出层

# the loss between prediction and real data
cross_entropy = tf.reduce_mean(-tf.reduce_sum(ys*tf.log(prediction), reduction_indices=[1]))
tf.summary.scalar('loss', cross_entropy)  # 2
train_step = tf.train.GradientDescentOptimizer(0.6).minimize(cross_entropy)

sess = tf.Session()
# merged = tf.merge_all_summaries()
merged = tf.summary.merge_all()

# summary writer goes in here
# train_writer = tf.train.SummaryWriter("logs/train", sess.graph)
# New SummaryWriter API
train_writer = tf.summary.FileWriter("logs/train", sess.graph)     # write to file
test_writer = tf.summary.FileWriter("logs/test", sess.graph)

# Old API tf.initialize_all_variables()
sess.run(tf.global_variables_initializer())


for i in range(500):
    sess.run(train_step, feed_dict={xs: X_train, ys: y_train, keep_prob: 0.5})  # 保存0.6 Drop掉0.4
    if i % 50 == 0:
        # record loss
        train_result = sess.run(merged, feed_dict={xs: X_train, ys: y_train, keep_prob: 1})
        test_result = sess.run(merged, feed_dict={xs: X_test, ys: y_test, keep_prob: 1})
        train_writer.add_summary(train_result, i)
        test_writer.add_summary(test_result, i)
        pass



两个函数的拟合的程度不一样



18 、卷积神经网络 CNN (深度学习)

应用范围:图形图像识别、视频分析、药物发现、自然语言处理、ALPHAGO

卷积神经网络是如何运作的,识别图片的例子:


升级网络由神经层组成,每一层神经层有很多神经元,神经元是神经网络识别的关键,每一种神经网络都有自己的输入和输出,当输入是图片的时候,是一对数字。


卷积神经网络

卷积:神经网络不再是对每一个像素输入的信息做处理,而是对图片上每一小块像素区域的处理。这种做法加快了图片信息的连续性,使得神经网络能看到图形而非一个点,这种做法同时也加深了,神经网络对图片的理解。



卷积升级网络有一个批量过滤器,持续不断的收集图像的信息,
神经网络


通过不断的扫描,来收集信息。把图片的厚度不断增加,长宽减少。

实际中卷积会丢失掉一部分信息,这时候池化pooling可以很好的解决这个问题。



在卷积的时候不压缩长宽,尽量保留更多的信息。压缩的工作就交给了池化。

常用的搭建结构:


卷积核 kernel patch 每一个小部分都会变成一个长度一个宽度,k厚度的数列。


Stride 抽离的跨度是多少。

对莫烦老师表示敬意!

莫烦老师GitHub地址:https://github.com/MorvanZhou/Tensorflow-Tutorial/tree/master/tutorial-contents

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343

推荐阅读更多精彩内容