ML 课堂笔记


WHAT - DEFINITION:


Machine learning algorithms:

• Supervised learning: tech computer

• unsupervised learning: let computer learn by itself

• Others: reinforcement learning, recommender systems.

Supervised learning: 

    training set with given label

        regression problem: to predict a continuous valued output. 

        classification problem: to predict a discrete valued output.

Unsupervised learning:

    data set without given label (classified by the machine itself)

symbols during study:

    m = number of training examples

    x's = "input" variable / features

    y's = "output" variable / "target" variable

    h = hypothesis, h maps from x's to y's, like x -h-> y


Linear regression with one variable/ univariate linear regression: 一元线性回归

*Used for contiuous valued problem

Cost function: 

*代价函数(有的地方也叫损失函数,Loss Function)在机器学习中的每一种算法中都很重要,因为训练模型的过程就是优化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加的正则化项也是加在代价函数后面的。概况来讲,任何能够衡量模型预测出来的值h(θ)与真实值y之间的差异的函数都可以叫做代价函数C(θ),如果有多个样本,则可以将所有代价函数的取值求均值,记做J(θ)。

性质如下:

• 对于每种算法来说,代价函数不是唯一的;

• 代价函数是参数θ的函数;

• 总的代价函数J(θ)可以用来评价模型的好坏,代价函数越小说明模型和参数越符合训练样本(x, y);

• J(θ)是一个标量(无向量);


1. 均方误差 squared error function - suitable for linear regression



Gradient descent algo: 最小梯度法。


正确的做法:同步更新θ_0 & θ_1



α: learning rate

If α is too small, gradient descent can be slow. If too large, gradient descent can overshoot the minimum. It may fail to converge, or even diverge. 


Learning rate can be fixed. As we approach a local minimum, gradient descent will automatically take smaller steps. (because the derrivative term will automatically get smaller) So, no need to decrease α over time. 

"Batch" / Batch梯度下降算法: Each step of gradient descent uses all the training examples. 

其中,


Gradient descent for multiple variables: 多元梯度下降法。



Feature scaling 特征缩放:

What: make sure features are on a similar scale to fasten the gradient descent.

Why: 等值线越椭圆,路径越曲折,所需时间越长。


How: Get every feature into approximately a  -1 <= xi <= 1 range. (no bigger than ±3, no less than ±1/3)

Mean Normalization 均值归一化:


Or, X = (value - μ) / σ

X  = 5184- 6675.5/8836

选择合适的多项式进行拟合:



*Iteration - 迭代。

Normal Equation 正则方程:


得到最优的θ.

In Octave: pinv(X'*X)*X'*y

不需要特征缩放。

正则方程与梯度下降对比:


如果X'X不可逆:


Logistic Regression 逻辑回归:

Most widely used classification algorithm in the world.

Decision boundary:

区分不同预测结果的边界,通常要根据不同的问题(依据散点图形or经验)来拟合。

Eg.


Simplify cost function for Logistic regression:


*    逻辑回归和线性回归的cost function都是凸函数,但如果把线性回归的cost function搬到逻辑回归的话就会产生非凸函数

Come out the Logistic Regression Cost Function as below:


To further simplify the Logistic regression cost function, turns out:


So, if y=1, to minimize cost function J(θ), turns out h(x) with θ.


The gradient descent for Logistic regression:


Feature scaling also applies to Logistic regression to fasten converge speed.




Neural Networks 神经网络:

适用于大数据量问题。

逻辑单元:模拟神经元和它的树突(input)和轴突(output)


Neural Network - a group of different neurons strung together



input layer 和output layer之间有hidden layer

theta 的下标和a的下标 以及 x的下标 对应

前一层的a输出下一层的a,最后一层被输出的a即是h(x)



若将x, a们向量化(并将x置换为a^{(1)}),可以得到z_=theta*x, 

a^{(2)} = \theta^{(1)}x = \theta^{(1)}a^{(1)}

从input layer -> hidden layer -> output layer 层层递进,如下:

即:

两层hidden layers的例子:


计算异或非的例子:

多元分类的例子:


反向传播算法求梯度:


拓展解析:https://www.cnblogs.com/vipyoumay/p/9334961.html


随机初始化theta:

why - 若不随机,会造成高度冗余,所有theta都是同一数值,最后只能得出一个特征

随机初始化:






Algorithm:

Cocktail party problem algorithm: 

        [W,s,v] = svd((repmat(sum(x.*x,1),size(x,1),1).*x)*x');

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,064评论 5 466
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,606评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,011评论 0 328
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,550评论 1 269
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,465评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 47,919评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,428评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,075评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,208评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,185评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,191评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,914评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,482评论 3 302
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,585评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,825评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,194评论 2 344
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,703评论 2 339

推荐阅读更多精彩内容

  • 本系列文章面向深度学习研发者,希望通过Image Caption Generation,一个有意思的具体任务,深入...
    imGeek阅读 1,775评论 0 8
  • 引言 机器学习栏目记录我在学习Machine Learning过程的一些心得笔记,涵盖线性回归、逻辑回归、Soft...
    hfk阅读 4,335评论 4 18
  • 一、课程大纲1.1课程内容介绍1.1.1 Supervised Learning关于监督型学习方法,本课程涉及到的...
    xiaorun阅读 1,242评论 0 1
  • 代价函数(Cost Function) 对于线性回归模型,我们定义的代价函数J(θ)为: 现在对于逻辑回归模型我们...
    SmallRookie阅读 992评论 3 1
  • 搭建编程环境 此处推荐安装Octave,如若已安装Matlab也可。这里不过多叙述如何安装Octave或Matla...
    SmallRookie阅读 945评论 0 0