吴恩达-神经网络和深度学习(第二周神经网络基础)

未经允许,不得擅自改动和转载

学习如何用神经网络的思维模式提出机器学习问题、如何使用向量化加速你的模型。

  • 先介绍一些名词

    • training set (训练集)
    • feature vector(特征向量)
    • classifier(分类器)
    • calculus(微积分)
    • 循环(loop)
    • 数据集(datasets)
    • vectorization (向量化)
    • matrix(矩阵)
    • vector(向量)
  • 本周用到的一些符号【Notation】

    • (x,y)表示一个单独的样本
    • x是xn维的特征向量
    • 标签y值为0/1
    • 训练集由m个训练样本构成
    • (x^(1), y^(1))表示样本一输入和输出,
    • {x^(1), y(1),.....x(n), y^(n).}整个训练集
    • 测试集的 样本数。训练集的样本数
    • 矩阵也可表示训练集输入x,输出标签y
    • 注意:训练样本作为行向量堆叠
    • 输出y是1xm矩阵

如下图:


Notation

二分分类【Binary Classification】

  • 神经网络的计算过程中,通常有一个正向过程【forward pass】(或者正向传播步骤),接着有一个反向过程【backward pass】(或者反向传播步骤)

  • logistic回归是一个用于二分分类的算法

  • 计算机保存图片,要保存三个独立矩阵(Red红 blue绿 Green蓝)
    如果有64X64的一张图片,则输入向量的维度n=64X64X3=12288

  • 在二分分类问题中,目标是训练出一个分类器,他以图片的特征向量x作为输入,,预测输出的结果y(只有两个值)

logistic回归

这是一个学习算法,用在监督学习中,
如下图:


logistic

logistic回归损失函数

损失函数【error function】在单个训练样本中定义的,他衡量了在单个训练样本上的表现
成本函数【cost function 】在全体训练集样本下的表现-->对损失函数求和
对以上函数要找到合适的参数w和b
成本函数用于衡量参数w和b的效果

如下图:


mark

mark

梯度下降法【Gradient Descent】

  • 训练或学习训练集上的参数w和b


    梯度下降法

    求最小值

导数

等于= be equal to

  • pluse
  • minus
    X times
    / divide

计算图

可以说,一个神经网络的计算都是按照前向或者反向传播过程来实现的,
首先计算出神经网络的输出
首先计算出神经网络的输出,紧接着一个反向传播操作,后者我们用来计算出对应的梯度或者导数,流程图解释了为什么这样实现
流程图,是用蓝色箭头画出来的的,从左到右的计算

流程图

计算图的导数计算

从右到左计算导数


mark

logistic回归中的梯度下降法(用偏导数实现)

导数流程图来计算梯度用偏导数有点大材小用,但对理解比较好


mark

m个样本的梯度下降

运用到整个样本集中


for循环

向量化

循环很低效率,用向量化来加速运算(np.function)
z=np.dot(w, x) + b

mark

可能有人说:可扩展深度学习实现是在GPU(图像处理单元)上做的,而我们做的再jupyter notebook上(CPU)
但GPU和CPU都有并行化的指令,SIMD单指令流多数据流,这点对GPU和CPU上面是成立的,只是GPU更擅长SIMD运算

  • for循环能不用就不用,如果可以使用内置函数或者其他方法计算循环,会比for循环更快


    mark

    mark

进一步向量化logistic回归

mark

向量化logistic回归的梯度输出

mark

这就得到高度向量化的,高效的logistic回归梯度下降法

python中的广播(使python和Numpy部分代码更高效)

广播(broadcasting)对列向量,行向量都有效
例子:


mark
mark

实现神经网络算法时主要用到的广播形式


mark

关于python/numpy向量的说明

千万不要用秩为1的数组
随意插入assert()声明,要仔细检查矩阵和数组的维度
不要害怕调用reshape,来确保你的矩阵和向量

mark

可以排除,简化甚至消灭代码中各种奇怪的bug

学习链接
4. Logistic代码实战

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,390评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,821评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,632评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,170评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,033评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,098评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,511评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,204评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,479评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,572评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,341评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,893评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,171评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,486评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,676评论 2 335

推荐阅读更多精彩内容