李宏毅ML01—Regression

Regression(回归)

回归可以用来做什么?

  • 股票预测:Input 股票历史数据,Output 明日股票数据
  • 自动驾驶:Input 周围障碍物情况,Output 方向盘角度
  • 推荐系统:Input 使用者A,商品B,Output 购买商品的可能性

数学前提

  • 中心极限定理:当样本数量很大的时候,样本往往趋于正态分布
  • 正态分布:呈样本数量中间高、两头低的分布
  • 最大似然估计:概率的反向。“概率”是已知参数求概率,比如知道硬币正反的参数都是0.5,来求得硬币正面的概率是多少。最大似然估计是通过场景呈现的结果,来反求得这个对象的几个参数是多少。

用Regression来预测Pokemon进化后的CP值

Step1: Model

  • Input 10只Pokemon的相关数值(当前CP值,体重,种类等),Ouput它进化后的Pokemon的CP值
  • y=b+\sum w_i x_i

Step2: Goodness of Function

  • 需要有一个function来评估之前的functions的好坏,把这个function叫做 Loss Function L (损失函数)
  • L(f)=L(w,b)=\sum\limits_{n=1}^{10}(y^n-(b+w\times x^n_{cp}))^2
  • 数值越大表示function越不好(上标n代表是第几只pokemon,下标cp代表pokemon的cp参数)
  • 所以每一次迭代都朝着损失函数减小的方向前进,直到找到了当前参数的损失函数极小值,那么损失函数的极小值就是最小值吗?有没有可能只找到了局部最优解,而不是全局最优解。即,是否只找到了损失函数曲线上的极小值点,而非最小值点?
  • convex function(凸函数):若一个函数最多只存在一个极小值点,则该函数是convex function
  • 在Linear Regression问题中,损失函数就是一个凸函数,所以,在当前的参数下,一定能找到全局最优解。

Step3: Best Functon

  • 基本步骤

    • 基本思路: f^*=arg\min\limits_f L(f)
    • w^*,b^*=arg\min\limits_{w,b} L(w,b)
    • w^*,b^*=arg\min\limits_{w,b} \sum\limits_{n=1}^{10}(y^n-(b+w\times x^n_{cp}))^2
    • 找到使得损失函数最小的w和b,如何找到呢,运用 Gradient Descent,梯度下降
    • 梯度下降,对参数w求导,求出来损失函数的斜率,再乘上参数n,把值加在参数w上,得到w^0
    • w^1=w^0-\eta\frac{dL}{dw}|_{w=w^0}
    • w^2=w^1-\eta\frac{dL}{dw}|_{w=w^1}
    • ...
    • 不断优化迭代,直到w^nw^{n+1}的差值小于某一特定数,或者迭代多少次以上
  • 求导

    • \frac{{\partial}L}{{\partial}w} = \sum\limits_{n=1}^{10}2\times(y^n-(b+w\times x^n_{cp}))\times(-x^n_{cp})
    • \frac{{\partial}L}{{\partial}b} = \sum\limits_{n=1}^{10}2\times(y^n-(b+w\times x^n_{cp}))\times(-1)
  • 梯度下降代码:

epsilon = 0.00001
def GradientDescend(diff,w,y,x_cp):
    while(diff>=epsilon):
        w_next = 0
        for y_n,x in y,x_cp: 
            w_next += w - n * ( 2 * (y_n - (b + w * x))) * -1 * x
        diff = w - w_next
        w = w_next
    return w
  • 但是也要注意模型的选择,过于贴合当前实验值的曲线,有可能会造成overfitting(过拟合)因为当前曲线也由其他因素(测量误差,噪音,和其他参数)影响。过于用现有的参数去模拟其他的参数,会使得模型变得复杂并且不具备健壮的泛化能力。

Step2 Optimised: Regularization(正则化)

  • 优化损失函数,期待一个参数值更加小的function,更加平滑的曲线(不要过于平滑)
实验误差和测试误差
  • L(w,b)=\sum\limits_{n=1}^{10}(y^n-(b+w\times x^n_{cp}))^2+\lambda\sum(w_i)^2
  • \lambda越大,实验的误差会越大 ,但是对于测试的误差可能会变小。
  • 损失函数后面会添加一个额外项,这可以看作是损失函数的“惩罚项”,是用来解决模型过拟合问题的。通常有L2-Norm, L1-Norm,L0-Norm(L2范式或者L2正则化)
    • L2-Norm
      • L=L_0+\frac{\lambda}{2n}\sum\limits_ww^2,L_{0为常规损失函数}
    • L1-Norm
      • L=L_0+\frac{\lambda}{n}\sum\limits_w|w|,L_{0为常规损失函数}
      • L1-Norm和L2-Norm咋一看看起来好像差不多,都是让参数变小,但其实有一定区别,两者求导后,L1-Norm会出现sgn(w),L1-Norm会让参数变稀疏,也就是会让一些参数变为0.

      通过和L2规范化的权重更新规则对比,可以看出在 L1 规范化中,权重通过一个常量向 0 进行缩小。在 L2 规范化中,权重通过一个和 w 成比例的量进行缩小的。所以,当一个特定的权重绝对值 |w| 很大时,L1 规范化的权重缩小得远比 L2 规范化要小得多。相反,当一个特定的权重绝对值 |w| 很小时,L1 规范化的权重缩小得要比 L2 规范化大得多。最终的结果就是:L1 规范化倾向于聚集网络的权重在相对少量的高重要度连接上,而其他权重就会被驱使向 0 接近。
      深度学习中的正则化技术—知乎专栏

    • L0-Norm
      • L=L_0+\frac{\lambda}{n}\sum\limits_ww^0,L_{0为常规损失函数}
      • 由于L0-Norm主要用来衡量参数中的非零参数个数,对模型的正则化效果并不好,所以通常用L1-Norm来正则化
    • 为什么只对w/Θ做限制,不对b做限制?
      • 因为限制是为了使得曲线的弯曲程度更加合理,b是截距,不会对弯曲程度造成影响。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容