softmax与svm比较

1、SVM

image
image

上图作图为通过f(x,w)得到输入图像的输出值,这里成为scores (34) * (41)》》3*1的输出值

右图 (34) (43)》》33的输出值
  那么如何根据输出值判定最终的label?》》建立SVM模型,得到loss,进行优化,得到最终模型。

参考之前的SVM知识对其基本理解。此处使用多分类的hinge loss:

image

依照scores带入hinge loss:

image

依次计算,得到最终值,并求和再平均:

image

问题1:如果在求loss时,允许j=y_i

此时L会比之前未包含的L大1

问题2:如果对1个样本做loss时使用对loss做平均,而不是求和,会怎样?

相当于sum乘以常系数

问题3:如果使用下列的loss function会怎样?

image

这其实是二次的hinge loss ,在某些情况下会使用。并且某些情况下结果比一次的hinge loss更好,此处使用一次形式。

问题4:上述求得的hinge loss的最大值与最小值:

最小值为0,最大值可以无限大。

问题5:通常在初始化f(x,w)中的参数w时,w值范围较小,此时得到的scores接近于0,那么这时候的loss是?

此时正确score与错误score的差接近于0,对于3classes,loss的结果是2。

实现SVM loss function的代码结构:

image

svm 的loss function中bug:

image

简要说明:当loss 为0,则对w进行缩放,结果依旧是0,如何解决?如下图所示:

image

加入正则项:

image

加入正则,对w进行约束,常用的正则有L1 L2,对应的note和作用使用L2正则,关于正则,在后面的章节会有分析。

L1趋于选取稀疏的参数,L2趋于选取数值较小且离散的参数。

==================================================================================

2、softmax

在机器学习推导系列中,对softmax进行了推导。课作为参考:ML 徒手系列 最大似然估计

在f(x,w)的基础上,改变score:

image

此时的score是0到1之间的值,且所以的score之和为1.大的score代表此score对应图像属于的某一个class的概率大。

使用似然估计作为loss,本来是似然估计越大越好,但通常loss使用越小时更直观,所以乘以-1:

单一样本:

image

单一样本数值表示:

image

具体例子:

image

问题6:L_i的最大值与最小值?

可知,归一化后的取值为0到1,所以最大值为正无穷,最小值为0.

问题7:初始化参数w时,w值范围较小,此时得到的scores接近于0,那么这时候的loss是?

此时的probability变成1/num_classes,loss》log(num_classes)

视频上提到可以使用这个结果在初始值时检验模型的设置是否正确。

==================================================================================

3、SVM与Softmax比较:

模型不同,loss function不同》》

image

loss function:

image

问题8:如果改变对输入数据做改变,即f(x,w)后的值发生变化,此时两个模型的loss分别会怎样变化?(如下例所示)

image

当改变的值不大时,对svm结果可能没影响,此时改变的点没有超过边界;但当改变较大时,会使得loss变化,此时表示数据点已经跨越了最大边界范围。

但是对softmax而言,无论大小的改变,结果都会相应变化。

课程提供了可视化的过程:http://vision.stanford.edu/teaching/cs231n/linear-classify-demo/

==================================================================================

4、优化参数

对两种模型loss 求和取平均并加入正则项。

image

方案1:随机选择w,计算得到相应的loss,选取产生的loss较小的w。

代码如下:

image

可见比较好的loss结果是8.605604,将此时的w更新到模型中,计算测试集数据得到预测的label,计算准确率,代码:

image

结果:

image

比瞎猜的概率:cifar10》》10个类别》》10% 较好。此时(上课时)的最好的模型可以做到95%准确率。

方案二:数值计算法梯度下降

梯度下降类比:

image

怎么达到谷底。。

一维求导:

image

多维时,分别对分量求导。具体步骤如下所示:

image
image

上述计算了2个分量的偏导。按照此方法求其余分量偏导。代码结构如下图:

image

显然,这种方式计算比较繁琐,参数更新比较慢。

方案三:解析法梯度下降

方案二使用逐一对w进行微量变化,并求导数的方式步骤繁琐,并且产生了很多不必要的步骤。

方案三是直接对w分量求偏导的方式:

image
image

对于SVM:

image

对于softmax:

image

==================================================================================

5、batches

每次计算loss function 时,输入的图片数目。

使用256的batches:

image

经常使用的batches数目:32/64/128/256

使用256 batches时的loss更新图:

image

更新w与b的计算公式:

image

(1)对于Δw与Δb前的系数I/m是在使用batches后,得到总loss,求平均loss,然后用loss对batches次计算过程中的w与b求偏导,得到的偏导结果做平均。

可见,用了m个batches。

(2)λ为正则化系数,α为学习率或step size。

高学习率、低学习率、较好的学习率比较图:

image

学习率属于超参数,需要通过验证的方式来选取比较合适的学习率。在课程提供的note中有介绍。

mini-batches 的代码结构:

image

红色框中为参数更新方式,更多的更新方式:比如momentum,Adagrad,RMSProp,Adam等方式会在后续课程讲解。

提前比较各个方法的更新可视化图:

image

仅做了解,后续详细说。

==================================================================================

6、特征表示方式

图像特征频谱:

image

柱状图:

image

HOG/SIFT features:

image

Many more:GIST, LBP,Texton,SSIM, ...

Bag of Words:

image

==================================================================================

7、模型与特征

image

上图黑色线以上是cnn火了之前使用的方式,通过对数据做特征冲去得到多个特征向量,然后把特征向量输入到模型中进行训练。

黑色线以下,是现在很火的cnn模型,不需要对数据进行特征抽取。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,132评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,802评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,566评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,858评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,867评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,695评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,064评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,705评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,915评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,677评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,796评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,432评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,041评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,992评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,223评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,185评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,535评论 2 343

推荐阅读更多精彩内容