问题汇总(2):支持向量机

本来是只想写一篇出来的,结果,,,内容也太多了,,,分开分开,先写SVM。


目录:
机器学习常见面试问题汇总
问题汇总(1):逻辑回归
问题汇总(2):支持向量机
问题汇总(3):树模型
问题汇总(4):聚类
问题汇总(5):神经网络
问题汇总(6):EM算法
问题汇总(7):朴素贝叶斯


参考的一些引用:

机器学习之有必要手推SVM吗?(这篇写的挺好~)
支持向量机通俗导论:理解SVM的三种境界
SVM从入门到放弃再到掌握

上面两篇文章基本可以解决SVM的推导,解释原问题和对偶问题,SVM原问题和对偶问题的关系,KKT限制条件,KKT条件用哪些,完整描述;软间隔问题,解释支持向量、核函数(哪个地方引入、画图解释高维映射,高斯核可以升到多少维,如何选择核函数),引入拉格朗日的优化方法的原因,最大的特点,损失函数解释,svm里面的c有啥用等。


简单介绍SVM:

从分类平面,到求两类间的最大间隔,到转化为求间隔分之一,等优化问题,然后就是优化问题的解决办法,首先是用拉格拉日乘子把约束优化转化为无约束优化,对各个变量求导令其为零,得到的式子带入拉格朗日式子从而转化为对偶问题, 最后再利用SMO(序列最小优化)来解决这个对偶问题。


SVM和LR的异同

机器学习-LR推导及与SVM的区别

相同点:

  • LR和SVM都是监督学习方法,是分类算法
  • 如果不考虑使用核函数,LR和SVM都是线性分类模型,也就是说它们的分类决策面是线性的。
  • LR和SVM都是判别模型。
    典型的判别模型包括K近邻法、感知机、决策树、Logistic回归、最大熵、SVM、boosting、条件随机场等。
    典型的生成模型包括朴素贝叶斯法、隐马尔可夫模型、高斯混合模型等。
  • LR和SVM在学术界和工业界都广为人知并且应用广泛。(这句话,,,被我找到了一个万能句式?)

不同点:

  • loss function不一样。LR基于概率理论,通过极大似然估计方法估计出参数的值,然后计算分类概率,取概率较大的作为分类结果。SVM基于几何间隔最大化,把最大几何间隔面作为最优分类面。
    Loss function of LR

    Loss function of SVM
  • SVM只考虑分类面附近的局部的点,即支持向量,LR则考虑所有的点,与分类面距离较远的点对结果也起作用,虽然作用较小。所以LR对异常值敏感,SVM对异常值不敏感。
  • 在解决非线性分类问题时,SVM采用核函数,而LR通常不采用核函数。在计算决策面时,SVM算法中只有支持向量参与了核计算,在LR算法里,如果采用核函数,则每一个样本点都会参与核计算,这会带来很高的计算复杂度。
  • SVM没有伸缩不变性,LR具有伸缩不变性。(SVM毕竟是基于距离的模型,这玩意对缺失值也比较敏感。)SVM模型在各个维度进行不均匀伸缩后,最优解与原来不等价,所以SVM 需要数据标准化。LR模型在各个维度进行不均匀伸缩后,最优解与原来等价。但是,由于实际求解往往使用迭代算法,如果目标函数的形状太“扁”,迭代算法可能收敛得很慢甚至不收敛。所以对于具有伸缩不变性的模型,最好也进行数据标准化。
  • SVM损失函数自带正则项,因此,SVM是结构风险最小化算法。而LR需要额外在损失函数上加正则项。所谓结构风险最小化,意思就是在训练误差和模型复杂度之间寻求平衡,防止过拟合,从而达到真实误差的最小化。未达到结构风险最小化的目的,最常用的方法就是添加正则项。

Kernel:核函数的定义和作用

Kernel讲解视频
知乎:核函数

  当样本不在线性可分时,就用到了核函数。其实核函数就是把原来的x做了一波变换,从容易理解的角度上来说,就是将低维度的特征映射到了高维度(无穷维),即 x_i映射到\Phi(x_i),使样本再次变得可以通过一个超平面分开。
  但其实,如果对每个样本都做这样的映射操作,将会很耗费时间,并且,我们并不知道这个\Phi(x_i)具体是什么。幸运的是,如果大家对对偶问题熟悉的话,可以看到,其实并不需要求出\Phi(x_i)的具体值,而只需要求内积即可,也就是求\Phi(x_i)^T\Phi(x_j),就可以完成SVM的计算工作。那么,我们直接设一个核函数K= \Phi(x_i)^T\Phi(x_j),相当于我们还是不知道\Phi(x_i),而是直接知道了\Phi(x_i)^T\Phi(x_j)(因为我们的计算过程只需要知道内积即可)。这样子就可以解决线性不可分问题。
  只要一个对称函数所对应的核矩阵半正定,那么就可以作为核函数使用,此时总能找到一个与之对应的映射空间\Phi。但是核函数选择是支持向量机最大变数,如果选择不合适,那么意味着样本映射到了一个不合适的特征空间,会导致性能不佳。常用的核函数有线性核、多项式核、高斯核(也称RBF、径向基)、拉普拉斯核、sigmoid核等。


SVM如何处理多分类任务?

Logistic回归和SVM的异同
SVM解决多分类问题的方法


对偶问题

  • 为什么要把原问题转换为对偶问题?
    因为原问题是凸二次规划问题,转换为对偶问题更加高效。
    方便引入核函数思想,求解非线性SVM。

  • 为什么求解对偶问题更加高效?
    因为只用求解alpha系数,而alpha系数只有支持向量才非0,其他全部为0。
    并且对偶问题有了高效求解方法,SMO。

    用讲故事的方法帮你理解SMO

  • alpha系数有多少个?
    个数为样本点的个数。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342