Task 1_补充 深度学习概念

了解神经网络

神经网络的结构

神经网络由输入/输出/隐藏层组成

神经网络三层结构

这些Layer都是由一个个神经元组成,每个神经元都接受多个输入,并产生一个输出,就好像人的神经元突触一样。神经元在接收输入时,会各自乘以一定的权重(有时候还会加上一个bias),并根据自己的激活函数产生输出。权重大则说明神经网络认为它的信息比较重要,权重小则认为神经网络认为它的信息不那么重要。
神经元

激活函数

什么是激活函数

如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。


为什么要用

如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。
如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众多的非线性模型中。
常用的激活函数有三种,Sigmoid, ReLU 和 Softmax。

Sigmoid函数计算如下:

  • softmax函数最好在分类器的输出层使用。
  • 它可以将一个实数映射到(0,1)的区间,可以用来做二分类。(它不像SVM直接给出一个分类的结果,Logistic Regression给出的是这个样本属于正类或者负类的可能性是多少,当然在多分类的系统中给出的是属于不同类别的可能性,进而通过可能性来分类。)
  • 在特征相差比较复杂或是相差不是特别大时效果比较好。
  • 优点:
    1. Sigmoid函数的输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层。
    2. 求导容易。
  • 缺点:
    1. 由于其软饱和性,容易产生梯度消失,导致训练出现问题。
    2. 其输出并不是以0为中心的。

tanh函数计算如下:

  • 优点:
    1. 比Sigmoid函数收敛速度更快。
    2. 相比Sigmoid函数,其输出以0为中心。
  • 缺点:
    1. 还是没有改变Sigmoid函数的最大问题——由于饱和性产生的梯度消失。

ReLU函数计算如下:

  • ReLU是近几年非常受欢迎的激活函数。
  • 当x<0时,ReLU硬饱和,而当x>0时,则不存在饱和问题。所以,ReLU 能够在x>0时保持梯度不衰减,从而缓解梯度消失问题。这让我们能够直接以监督的方式训练深度神经网络,而无需依赖无监督的逐层预训练。
  • 优点:
    1. 相比起Sigmoid和tanh,ReLU(e.g. a factor of 6 in Krizhevsky et al.)在SGD中能够快速收敛。例如在下图的实验中,在一个四层的卷积神经网络中,实线代表了ReLU,虚线代表了tanh,ReLU比起tanh更快地到达了错误率0.25处。据称,这是因为它线性、非饱和的形式。
  1. Sigmoid和tanh涉及了很多很expensive的操作(比如指数),ReLU可以更加简单的实现。

  2. 有效缓解了梯度消失的问题。

  3. 在没有无监督预训练的时候也能有较好的表现。


  4. Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。

  • 缺点:
    1. 随着训练的进行,可能会出现神经元死亡,权重无法更新的情况。如果发生这种情况,那么流经神经元的梯度从这一点开始将永远是0。也就是说,ReLU神经元在训练中不可逆地死亡了。

LReLU、PReLU与RReLU

未研究,详情见参考

什么是饱和,硬饱和

a.饱和
当一个激活函数h(x)满足


时我们称之为右饱和。

当一个激活函数h(x)满足


时我们称之为左饱和。当一个激活函数,既满足左饱和又满足又饱和时,我们称之为饱和。

b.硬饱和与软饱和
对任意的x,如果存在常数c,当x>c时恒有 h′(x)=0则称其为右硬饱和,当x<c时恒 有h′(x)=0则称其为左硬饱和。若既满足左硬饱和,又满足右硬饱和,则称这种激活函数为硬饱和。但如果只有在极限状态下偏导数等于0的函数,称之为软饱和。

如何选择正确的激活函数?

激活函数好或坏,不能凭感觉定论。然而,根据问题的性质,我们可以为神经网络更快更方便地收敛作出更好的选择。

  • 用于分类器时,Sigmoid函数及其组合通常效果更好。

  • 由于梯度消失问题,有时要避免使用sigmoid和tanh函数。

  • ReLU函数是一个通用的激活函数,目前在大多数情况下使用。

  • 如果神经网络中出现死神经元,那么PReLU函数就是最好的选择。

  • ReLU函数只能在隐藏层中使用。(为什么)

做的时候,可以从ReLU函数开始,如果ReLU函数没有提供最优结果,再尝试其他激活函数。

代价函数

https://www.cnblogs.com/Belter/p/6653773.html 此处有比较好的阐述,暂未仔细研究

各种优化方法

http://www.sohu.com/a/149921578_610300 此处有比较好思路,但时间不足未能仔细研究,后根据需要补上。
一般都是采用梯度下降。梯度下降的幅度即使learning_rate,幅度过大,则在接近最优解时难以收敛,幅度过小,则收敛速度过慢。真正的生产环节中,可以是先采取大的learning_rate,再慢慢减小。

GAN

https://www.youtube.com/watch?v=yYUN_k36u5Q

生成-对抗网络的训练过程就是训练评估模型与生成模型。一边纠正评估模型,一边让评估模型指导生成模型的生成。
详细地说,就是先让初始生成模型生成一组,再与样本数据合在一起让初始判别模型判断,并得到判断的准确性的评估。让这个评估作为反馈,进行BP,让生成模型和判别模型都反馈学习。

参考

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,099评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,473评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,229评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,570评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,427评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,335评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,737评论 3 386
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,392评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,693评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,730评论 2 312
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,512评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,349评论 3 314
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,750评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,017评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,290评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,706评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,904评论 2 335

推荐阅读更多精彩内容