优化算法-如何事倍功半优化你的模型(一)

武功再高,也怕菜刀。

当我们的模型主体结构确定了之后,或者说我们由于数据量等现实问题已经无法再提已有模型的能力,我们可以使用很多简单的优化算法,把我们现在的数据模型的能力大幅提高。这一部分我们会分别介绍多层网络,激活函数,损失函数,梯度下降,反向传播,动态学习率以及具体的实现


多层网络

首先我们在第一章就讨论了深度学习的惊人效果,所以首先我们要做的就是要把上一张的模型变成神经网络结构,即在输入层和输出层之间加入隐藏层。


神经网络结构

隐藏层可以包含很多层,上一层的处理结果又是下一次的输入值,经过每一层的处理最终得到输出结果。可以理解为每一层我们通过参数的设置,把上一层的处理结果抽象成更高级的特征。

层数越深越好?
随着隐藏层的层数越来越多,我们最终结果的准确率也会提升。然而随着深度越来越深,我们发现了这些问题:

1. 过拟合(Overfitting) 原因是随着层数的增多,对正确结果有影响的“噪音”也和真正所需的特征一起被放大,抽象。这就导致了我们所训练的模型对于训练集数据可以高度的匹配,但是不具备普遍实用性,所以这样的模型会在测试集上表现不尽人意。

欠拟合,恰当中和,过拟合

如图所示,第一种是拟合不足,导致模型在训练集和测试集上都没有好的表现;恰当的拟合如图二,则会在训练集和测试集上都有比较好的结果;图三则是过拟合,它在训练集上过度的拟合,虽然可以在训练集上取得很高的准确率,却会在测试集上获得较低的训练集。
对于如何在深度网络中解决过拟合的问题,我们会专门开一章讲解,有很多有趣的想法。

2. 梯度消失(Gradient Vanishing Problem)
梯度消失是指在神经网络训练过程中,权重更新的梯度消失,也就是权重参数无法再通过训练更新。现在对于梯度的修正方法也很多了,我们会在后面的讲解中带出。其中一个简单实用的就是使用非线性激活函数。

3. 梯度爆炸(Gradient Exploding Problem)
和梯度消失相反,梯度爆炸是指在神经网络训练过程中,权重更新的梯度变大,使得权重多次以大于1的倍数迭代更新。我们也会在后面的讲解中提出解决方案。

激活函数

简单概括,激活函数是用来实现函数的去线性化。想象一下你用一堆直线想要画出一个圆,就必须用无数的直线一点点修正。但是如果你可以话曲线就可以一次性解决问题。如果没有激活函数,所有的输入和输出其实都是线性关系,这就像用直线画圆一样,同样的训练成本下只能实现粗糙的效果。


常用激活函数

sigmoid是最为普遍的激活函数,但是现在在我们的实际应用中已经很少使用了,一个重要的原因就是它在深层网络中容易引起梯度消失,所以我们一般在隐藏层中使用ReLU作为激活函数。但是使用ReLU我们一样有需要注意的是学习率的设定,因为从它的特征我们也能发现,它很容易造成死神经元,也就是所有神经元的输入经过激活后变成了0。所以我们也可以使用Leaky ReLU替代。
具体使用什么样的激活函数其实和我们所训练的数据以及模型有关,大家在实践中发现模型有问题发生在激活函数前后时,可以尝试其他的激活函数。

损失函数

我们训练神经网络的最终目的就是最小化我们的损失函数,所以损失函数即我们用来衡量模型好坏的标准。正如我们前面提到的,不同的模型有着目的所以一般有着不一样的损失函数。但是我们也有着一些通用的评判方法,比如交叉熵函数(Cross Entropy)。p表示真实标记的分布,q则为训练后的模型的预测标记分布,交叉熵损失函数可以衡量p与q的相似性。

交叉熵

自定义损失函数
我们当然可以根据实际需要自定义损失函数。比如我是一个销售商,我进货时需要考虑我能卖多少。假如一件商品的成本是1,利润是2,那么我多进货一个,损失是1,但是少进一个就会损失2,所以我的损失函数就会变成

loss  = sum(f(x, y))
f(x, y) = 1 * (x - y) 如果x > y
f(x, y) = 2 * (y - x) 如果y > x

这些都是我们在实际应用中必然会使用的方法,每一项都可以展开说很多内容,我们在这里先进行简单介绍,等我们在操作中遇到时会继续展开。有兴趣的同学们可以自己去搜索一下相关知识。
另外欢迎大家关注留言,我们的更新可以及时推送,一起学习吧骚年们~

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 195,898评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,401评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,058评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,539评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,382评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,319评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,706评论 3 386
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,370评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,664评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,715评论 2 312
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,476评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,326评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,730评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,003评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,275评论 1 251
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,683评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,877评论 2 335

推荐阅读更多精彩内容