深度学习:三、浅层神经网络


其实有些东西已经在sklearn的那个里面讲过了,这边补充点没讲过的吧

3.5 向量化实现的解释

以下面这个前向传播为例:

此时,W[1]就是一个矩阵,而x(i)都是列向量,那么就转化成了矩阵与向量的数学运算:

从上述例子不难看出,运用了向量算法就可以不通过循环来对多样本数据进行计算;


3.6 激活函数

常见的有这几种:

  • sigmoid函数
  • tanh函数
tanh函数图像

值域变成了(-1,1)

通过比较(在哪)发现,tanh比sigmoid要好用。例外:在二分类问题中,输出层的值为0/1,所以就得用sigmoid函数。除此以外的情况一般都是用tanh函数了;

共同缺点:在z特别大/小的情况下,导数就会一直趋近于0,降低了梯度下降的速度;

  • Relu函数:a = max(0,z)。这个函数现在用的最多;

  • 选激活函数的经验法则:如果输出是 0、1 值(二分类问题),则输出层选择 sigmoid 函数,然后其它的所有单元都选择Relu函数;

  • Relu函数的优点:当𝑧是负值的时候,导数等于 0;

  • Leaky Relu:当𝑧是负值时,这个函数的值不是等于 0,而是轻微的倾斜。公式:𝑎 = 𝑚𝑎𝑥(0.01𝑧, 𝑧);
    他们四个的图像如下图所示:

快速概括
sigmoid 激活函数:除了输出层是一个二分类问题基本不会用它;
tanh 激活函数:tanh 是非常优秀的,几乎适合所有场合;
ReLu 激活函数:最常用的默认函数,,如果不确定用哪个激活函数,就使用 ReLu 或者Leaky ReLu;


3.9 神经网络的梯度下降

定义:其实就是通过导数找最低点从而找到最优点;

单隐层神经网络会有𝑊[1],𝑏[1],𝑊[2],𝑏[2]这些参数,还有个𝑛𝑥表示输入特征的个数,𝑛[1]表示隐藏单元个数,𝑛[2]表示输出单元个数;

训练参数需要做梯度下降,在训练神经网络的时候,随机初始化参数很重要,而不是初始化成全零。当你参数初始化成某些值后,每次梯度下降就是不断求导然后求解最优值

  • 正向传播:计算𝑧[1],𝑎[1],再计算𝑧[2],𝑎[2],最后得到 loss function

    image.png

  • 反向传播:向后推算出𝑑𝑎[2],然后推算出𝑑𝑧[2],接着推算出𝑑𝑎[1],然后推算出𝑑𝑧[1]。我们不需要对𝑥求导,因为𝑥是固定的,我们也不是想优化x;

这些都是针对所有样本进行过向量化,𝑌是1 × 𝑚的矩阵;这里 np.sum 是 python 的 numpy 命令,axis=1 表示水平相加求和,keepdims 是防止python 输出那些古怪的秩数(𝑛, ),加上这个确保阵矩阵𝑑𝑏[2]这个向量输出的维度为(𝑛, 1)这样标准的形式;

其实向后推算出𝑑𝑎,z[2]的步骤可以合为:


3.11 随机初始化

通过随机初始化来解决参数w可能为0的情况:把 𝑊[1]设为np.random.randn(2,2)(生成高斯/正态分布),通常再乘上一个小的数,比如 0.01,这样把它初始化为很小的随机数;

𝑊[1] = 𝑛𝑝. 𝑟𝑎𝑛𝑑𝑜𝑚. 𝑟𝑎𝑛𝑑𝑛(2,2) ∗ 0.01 
𝑏[1] = 𝑛𝑝. 𝑧𝑒𝑟𝑜𝑠((2,1)) 
𝑊[2] = 𝑛𝑝. 𝑟𝑎𝑛𝑑𝑜𝑚. 𝑟𝑎𝑛𝑑𝑛(2,2) ∗ 0.01 
𝑏[2] = 0

选取0.01是为了防止其对应的激活函数的值在梯度很小的地方(两端),从而导致其无法进行优化

注意:当训练一个个非常非常深的神经网络时,会有比0.01更好的常数,在下一章讲;

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,176评论 5 469
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,190评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,232评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,953评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,879评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,177评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,626评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,295评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,436评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,365评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,414评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,096评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,685评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,771评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,987评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,438评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,032评论 2 341

推荐阅读更多精彩内容