CNN Activation Function的介绍和对比

Activation Functions

关键词:Sigmoid、tanh、ReLU、Leaky ReLU、ELU、Maxout

本来是作为Day1 Training Neural Networks, part I的一部分的,但是由于补充的内容比较多,觉得还会单独一篇比较好。


激活函数的作用:给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。

六种常见激活函数

激活函数

激活函数实践指南

Use ReLU no sigmoid

Sigmoid、tanh、Relu的对比

Sigmoid、tanh、Relu的对比

sigmoid function在历史上流行过一段时间因为它能够很好的表达“激活”的意思,未激活就是0,完全饱和的激活则是1。但是因为它的输出不是zero-centered的,所以在sigmoid的基础上发展出来了tanh。Sigmoid会发成梯度弥散,所以又出现了Relu(于生物神经更类似),在正值区域内,不会发生梯度弥散。

1. 为什么希望输出是zero-centered?

对于Sigmoid函数,当后面的神经元的输入都为正数时,(e.g. x>0 elementwise in f=wTx+b),那么对 w 求局部梯度时,梯度值则都为正数,这样在反向传播的过程中 w 要么都往正方向更新,要么都往负方向更新,导致有一种捆绑的效果,使得收敛缓慢。

zero-mean data

2. 什么是梯度弥散?

梯度弥散的问题很大程度上是来源于激活函数的“饱和”。Sigmoid gate容易饱和:当输入非常大或者非常小的时候,神经元的梯度(斜率)就接近于0了,从曲线图中可以看出梯度的趋势。

饱和的定义

这就使得我们在反向传播算法中反向传播接近于0的梯度,导致最终权重基本没什么更新,这样一来,深层模型也就变成了前几层相对固定,只能改变最后几层的浅层模型,我们就无法递归地学习到输入数据了。这种现象就是梯度弥散(vanishing gradient problem)

另外,需要尤其注意参数的初始值来尽量避免饱和(saturation)的情况。如果你的初始值很大的话,大部分神经元可能都会处在saturation的状态而把gradient kill掉,这会导致网络变的很难学习。

x = -10 或者 x = 10, 都会使得当前神经元的梯度接近于0,会引起梯度弥散。

梯度弥散

3. Kill Gradient & dead ReLU

与上述Sigmoid gate相似,当 x = -10 (负数)的时候,正向传播时,该神经元未被激活,梯度为0,无法进行反向传播,也就不能更新权值,称为“Kill Gradient”.

但当 x = 10 (正数)时,输出为正数,反向传播时,直接传播前一个神经元的梯度。

x = 0时,没有定义它的梯度是什么,因为在这一点是不可微的。

有两种情况会引起dead ReLU

1)初始化权重的时候时,将权重设置为了不能激活ReLU的数值(少见)

2)Learning Rate设置过大:以 y = w * x + b 为例,如果Learning rate设置过大,在某次反向传播后,调整w的时候,可能会使 w 变的很少,输出 y' 为负数,那么进入到ReLU的时候,输出为0,该神经元的局部梯度为0,则在此处权重将不会得到更新, 也就是说,ReLU神经元在训练中不可逆地死亡了。


dead ReLU

Leaky RuLU

优点:解决Dead ReLU 问题,既修正了数据分布,又保留了一些负轴的值,使得负轴信息不会全部丢失

缺点:性能不稳定,众说纷纭,没有清晰的定论。

PReLU:LReLU的改进版,可以自适应地从数据中学习参数。PReLU具有收敛速度快、错误率低的特点。PReLU可以用于反向传播的训练,可以与其他层同时优化。

值得注意的是:在tflearn中有现成的LReLU和PReLU可以直接用。

Leaky ReLU

ELU

优点:1)ELU减少了正常梯度与单位自然梯度之间的差距,从而加快了学习。

2)在负的限制条件下能够更有鲁棒性。

缺点:涉及到指数运算,影响运算速度。

ELU

MaxOut

ReLU和Leaky ReLU都是这个公式的特殊情况(比如ReLU就是当w1 = 0, b = 0 的时候)。这样Maxout神经元就拥有ReLU单元的所有优点(线性操作和不饱和),而没有它的缺点(死亡的ReLU单元)。然而和ReLU对比,它每个神经元的参数数量增加了一倍,这就导致整体参数的数量激增。

Maxout

相关文章链接:https://www.cnblogs.com/rgvb178/p/6055213.html

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容