吴恩达机器学习笔记:Week1

入门

ML定义:
一个电脑程序 被认为能从经验E中学习 解决任务T 达到性能度量值P ,当且仅当,有了经验E,经过P的评判后,处理任务T的性能得到了提升

学会区分 任务T 经验E 表现P

Example: playing checkers.
E = the experience of playing many games of checkers
T = the task of playing checkers.
P = the probability that the program will win the next game.

监督学习:我们教计算机如何去学习
非监督学习:计算机自己进行学习

监督学习

意指 给出一个算法所需要的部分数据集已经有正确答案,算法的结果就是给出更多未知数据的结果

回归:预测的是连续值
分类:预测离散值的输出

主要例子是房价预测(回归)和 肿瘤判断(分类)两个问题

非监督学习

非监督学习中 所使用的数据是没有标签的,没人有告诉数据集的含义,我们可以根据数据中变量之间的关系对数据进行聚类。

例子
根据基因对某些特定的人群进行分类(聚类,基因相似的分到一簇中)

鸡尾酒酒宴(cocktail party problem)
svd算法
允许您在混乱的环境中找到结构。(例如,从鸡尾酒会上的各种声音中识别出个人的声音和音乐)

单变量线性回归算法

模型定义:
给定一个函数 h 通过输入x,经过h,产生输出h(x)
called hypothesis

h_\theta(x) = \theta_0 + \theta_1*x
其模型参数为\theta

cost function (损失函数)

目标就是找到 最优的 模型参数 \theta,从而使我们的模型(或者hypothesis)最优
使得产生的h(x)尽可能的接近 y。
损失函数:

min_{\theta_0,\theta_1} \frac{1}{2m} \sum_{i=1}^{m}(h(x)^{(i)} - y^{(i)})^2

min J({\theta_0,\theta_1})

J({\theta_0,\theta_1}) = \frac{1}{2m} \sum_{i=1}^{m}(h(x)^{(i)} - y^{(i)})^2 (squared error cost function)
式中的\frac{1}{2} 是为了方便求导的时候产生的2 约去
可以看到的是 h(x) 是关于x的函数
J(\theta) 是关于参数\theta的函数
通过求J(\theta) 的最小值,也就是损失最小,使得损失最小的参数\theta ​就是我们要找到的 模型参数。

CostFunction.png

梯度下降法

  • outline
    • start with some \theta_0,\theta_1(均等于0,或者随机值)
    • keep changing \theta_0,\theta_1 to reduce J(\theta),until we hopefully end up at a minimum
GradientDescent.png

经典解释梯度下降算法:下山例子

The gradient descent algorithm is:

repeat until convergence:重复这个过程 直到收敛

\theta_j := \theta_j - \alpha \frac{\partial}{\partial \theta_j} J(\theta_0, \theta_1)

\alpha 学习率,来控制下降过程的步子大小:

过大:下降很快,但是会越过最低点造成无法收敛或者发散

过小: 下降速度较慢,

参数学习过程是同步进行的:

GradientDescent1.png

参数更新过程,根据上面的公司,在最低点左右两侧均正确:

GradientDescent2.png

\theta_1:=\theta_1-\alpha * 0​

当到达局部最优点的时候,会使得损失函数的偏导数=0 从而收敛到局部最优。

再接近局部最优点的时候,梯度下降会自动选择更小的步子来达到最优点,**所以没有必要减少学习率\alpha​ **

线性回归算法的梯度下降

首先应该 搞清楚 梯度下降的导数部分,对应于线性回归算法 应该如何计算

[图片上传失败...(image-774809-1550998380376)]

repeat until convergence:

{

θ_0:=θ_0−α\frac{1}{m}\sum_{i=1}^{m}(h_θ(x_i)−y_i) ​

θ_1:=θ_1−α\frac{1}{m}\sum_{i=1}^{m}((h_θ(x_i)−y_i)*x_i) ​

}

凸函数:其形状类似一个碗装,这样的函数没有局部最优解,只有全局最优解

上面的计算过程 我们总是遍历整个样本集来更新我们的参数, batch gradient descent 批量梯度下降

正规方程组解法 存在这样的一种解法 不需要使用梯度下降。

梯度下降适用于更大的数据集(自己给的解释就是,对于较大数据集,进行矩阵计算较为麻烦)

线性代数部分复习

理解矩阵和向量的含义,向量多指 N*1 的矩阵

大写字母来表示矩阵

小写字母来表示向量

存在结合律(矩阵链乘法的优化)

不可以使用交换律 A·B \not= B·A

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,175评论 5 466
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,674评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,151评论 0 328
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,597评论 1 269
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,505评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 47,969评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,455评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,118评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,227评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,213评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,214评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,928评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,512评论 3 302
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,616评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,848评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,228评论 2 344
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,772评论 2 339

推荐阅读更多精彩内容