03_机器学习基础

一、机器学习的概念

(一)机器学习是什么

        1、学习:通过各种手段获取知识或技能的过程。

        2、机器怎么学习

        (1)处理某个特定的任务,以大量的“经验”为基础。

        (2)对任务完成的好坏,给予一定的评判标准。

        (3)通过分析经验数据,任务完成得更好了。

(二)机器学习的开端

        1952年,IBM的Arthur Samuel(被誉为“机器学习之父”)设计了一款可以学习的西洋跳棋程序。它能通过观察棋子的走位来构建新的模型,并用其提高自己的下棋技巧。Samuel和这个程序进行多场对弈之后发现,随着时间的推移,程序的棋艺越来越好。

(三)机器学习的定义

        1、机器学习(Machine Learning,ML)主要研究计算机系统对于特定任务的性能,逐步进行改善的算法和统计模型。

        2、通过输入海量训练数据对模型进行训练,使模型掌握数据所蕴含的潜在规律,进而对新输入的数据进行准确的分类或预测。

        3、是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸优化、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。

(四)机器学习的过程

图1

二、机器学习主要分类

(一)机器学习的主要分类

图2

(二)无监督学习

        1、无监督学习( Unsupervised Learning)算法采用一组仅包含输入的数据,通过寻找数据中的内在结构来进行样本点的分组或聚类。

        2、算法从没有被标记或分类的测试数据中学习。

        3、无监督学习算法不是响应反馈,而是要识别数据中的共性特征;对于个新数据,可以通过判断其中是否存在这种特征,来做出相应的反馈。

        4、无监督学习的核心应用是统计学中的密度估计和聚类分析。

(三)无监督学习的应用

        1、无监督聚类应用的一个例子就是在谷歌新闻中。

        2、谷歌新闻每天都会收集很多新闻内容。它将这些新闻分组,组成有关联的新闻,然后按主题显示给用户。

        3、谷歌新闻做的就是搜索新闻事件,自动地把他们聚类到一起;这些新闻事件全是同一主题。

图3

(四)监督学习

图4

        1、监督学习( Supervised Learning)算法构建了包含输入和所需输出的组数据的数学模型。这些数据称为训练数据,由一组训练样本组成。监督学习主要包括分类和回归。

        2、当输出被限制为有限的一组值(离散数值)时使用分类算法;当输出可以具有范围内的任何数值(连续数值)时使用回归算法。

        3、相似度学习是和回归和分类都密切相关的一类监督机器学习,它的目标是使用相似性函数从样本中学习,这个函数可以度量两个对象之间的相似度或关联度。它在排名、推荐系统、视觉识别跟踪、人脸识别等方面有很好的应用场景。

图5

三、监督学习

(一)监督学习三要素

图6

(二)监督学习实现步骤

    1、得到一个有限的训练数据集。

    2、确定包含所有学习模型的集合。

    3、确定模型选择的准则,也就是学习策略。

    4、实现求解最优模型的算法,也就是学习算法。

    5、通过学习算法选择最优模型。

    6、利用得到的最优模型,对新数据进行预测或分析。

图7
图8

(三)监督学习模型评估策略

     1、模型评估:

        (1)训练集和测试集

             a. 训练集:(用来训练的数据),输入到模型中对模型进行训练的数据集合。

             b. 测试集:(将用来测试模型好坏的集合),模型训练完成后测试训练效果的数据集合。

        (2)损失函数和经验风险

             a. 损失函数:用来衡量模型预测误差的大小。

                 定义:选取模型f为决策函数,对于给定的输入参数X,f(X)为预测结果,Y为真实结果;f(X)和Y之间可能会有偏差,我们就用一个损失函数(loss function)来度量预测偏差的程度,记作L(Y,f(X))

                损失函数是系数的函数。损失函数值越小,模型就越好。

图9

             b. 经验风险:模型 f(X) 关于训练数据集的平均损失称为经验风险(empirial risk),记作 Remp

图10

                经验风险最小化(Empirical Risk Minimization,ERM):这一策略认为,经验风险最小的模型就是最优的模型。

                样本足够大时,ERM 有很好的学习效果,因为有足够多的“经验”。

                样本较小时,ERM 就会出现一些问题。

        (3)训练误差和测试误差

                a. 训练误差:(training error)是关于训练集的平均损失。训练误差的大小,可以用来判断给定问题是否容易学习,但本质上并不重要。

图11

                b. 测试误差:(testing error)是关于测试集的平均损失。测试误差真正反映了模型对未知数据的预测能力,这种能力一般被称为泛化能力。

图12

    2、模型选择

        (1)过拟合和欠拟合

图13

                a. 欠拟合:模型没有很好地捕捉到数据特征,特征集过小,导致模型不是很好地过拟合数据,称之为欠拟合(under-fitting)。

                    欠拟合的本质是对数据的特征“学习”得不够。

                b. 过拟合:把数据学习的太彻底,以至于把噪声数据的特征也学习到了,特征集过大,这样就会导致在后期测试的时候不能够很好地识别数据,即不能正确的分类,模型泛化能力太差,称之为过拟合(over-fitting)。

图14

                c. 模型的选择

                当模型复杂度增大时,训练误差会逐渐减少并趋于0;而测试误差会先减小,达到最小值之后再增大。

                当模型复杂度过大时,就会发生过拟合;所以模型复杂度应适当。

图15

        (2)正则化和交叉验证

                a. 结构风险最小化(Structural Risk Minimization,SRM):是在ERM基础上,为了防止过拟合而提出来的策略。在经验风险上加上表示模型复杂度的正则化项(regularizer),或者叫惩罚项。正则化项一般是模型复杂度的单调递增函数,即模型越复杂,正则化值越大。

                    结构风险最小化的典型实现是正则化(regularization):第一项是经验风险,第二项是J(f)是正则化项,\lambda \geq 0是调整两者关系的系数。正则化项可以取不同的形式,比如,特征向量的L1范数或L2范数。

图16 公式

                b. 奥卡姆剃刀原理:如无必要,勿增实体。正则化符合奥卡姆剃刀原理。他的思想是:在所有可能选择的模型中,我们应该选择能够很好解释已知数据并且十分简单的模型。如果简单的模型已经够用,我们不应该一味追求更小的训练误差,而把模型变得越来越复杂。

                c. 交叉验证

                    数据集划分:如果样本数据充足,一种简单方法是随机将数据集切成三部分:训练集(training set,用于训练模型) 、验证集( validation set,用于模型选择)和测试集( test set,用于学习方法评估)。

                   数据不充足时,可以重复地利用数据一一交叉验证( (cross validation):

                        *    简单交叉验证:数据随机分为两部分,如70%作为训练集,剩下30%作为测试集。训练集在不同的条件下(比如参数个数)训练模型,得到不同的模型。在测试集上评价各个模型的测试误差,选出最优模型。

                        *    S折交叉验证:将数据随机切分为S个互不相交、相同大小的子集;S-1个做训练集,剩下一个做测试集。重复进行训练集、测试集的选取,有S种可能的选择。

                        *    留一交叉验证

(四)分类和回归

    1、监督学习问题主要可以划分为两类,即分类问题回归问题

        - 分类问题预测数据属于哪一类别。一一离散

        - 回归问题根据数据预测一个数值。一一连续

    2、通俗地讲,分类问题就是预测数据属于哪一种类型,就像上面的房屋岀售预测,通过大量数据训练模型,然后去预测某个给定房屋能不能出售出去,属于能够出售类型还是不能出售类型。

    3、回归问题就是预测一个数值,比如给出房屋一些特征,预测房价

    4、如果将上面的房屋出售的问题改为预测房屋出售的概率,得到的结果将不再是可以售出(1)和不能售出(0),将会是一个连续的数值,例如0.5,这就变成了一个回归问题。

    5、分类问题

    * 在监督学习中,当输出变量Y取有限个离散值时,预测问题就成了分类 ( classification)问题。

    * 监督学习从数据中学习一个分类模型或分类决策函数,称为分类器( classifier);分类器对新的输入进行预测,称为分类。

    * 分类问题包括学习和分类两个过程。学习过程中,根据已知的训练数据集利用学习方法学习一个分类器;分类过程中,利用已习得的分类器对新的输入实力进行分类。

    * 分类问题可以用很多学习方法来解决,比如k近邻、决策树、感知机、逻辑斯谛回归、支撑向量机、朴素贝叶斯法、神经网络等。  

图17

    6、精确率和召回率

    * 评价分类器性能的指标一般是分类准确率( accuracy),它定义为分类器对测试集正确分类的样本数与总样本数之比。

    * 对于二类分类问题,常用的评价指标是精确率( precision)与召回率(recall)。

    * 通常以关注的类为正类,其它为负类,按照分类器在测试集上预测的正确与否,会有四种情况出现,它们的总数分别记作:

        - TP:将正类预测为正类的数目

        - FN:将正类预测为负类的数目

        - FP:将负类预测为正类的数目

        - TN:将负类预测为负类的数目

图18

    7、回归问题:

    * 回归问题用于预测输入变量和输出变量之间的关系。

    * 回归模型就是表示从输入变量到输出变量之间映射的函数。

    * 回归问题的学习等价于函数拟合选择一条函数曲线,使其很好地拟合已知数据,并且能够很好地预测未知数据。

图19

    * 回归问题的分类:

        - 按照输入变量的个数:一元回归和多元回归

        - 按照模型类型:线性回归和非线性回归。

    * 回归学习的损失函数一一平方损失函数。

    * 如果选取平方损失函数作为损失函数,回归问题可以用著名的最小二乘法( east squares)来求解

(五)监督学习模型求解算法

    1、梯度下降算法

    * 梯度下降( gradient descent)是一种常用的一阶优化方法,是求解无约束优化问题最简单、最经典的方法之一。

    * 梯度方向:函数变化增长最快的方向(变量沿此方向变化时函数增长最快)。

    * 负梯度方向:函数变化减少最快的方向(变量沿此方向变化时函数减少最快)

    * 损失函数是系数的函数,那么如果系数沿着损失函数的负梯度方向变化,此时损失函数减少最快,能够以最快速度下降到极小值。

图20

    * 梯度下降不一定能够找到全局的最优解,有可能是一个局部最优解。

     * 如果损失函数是凸函数,梯度下降法得到的解就一定是全局最优解。

    2、牛顿法和拟牛顿法

    * 牛顿法( Newton method)

图21

    * 拟牛顿法( quasi Newton method)

        - 牛顿法需要求解目标函数的海赛矩阵的逆矩阵,计算比较复杂。

        - 拟牛顿法通过正定矩阵近似海赛矩阵的逆矩阵,从而大大简化了计算过程。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容