论文 | NeurIPS2019 Meta-Weight-Net: Learning an Explicit Mapping For SampleWeighting

一 写在前面

未经允许,不得转载,谢谢~~~

今天这篇paper是NeurIPS2019的一篇paper,虽然时间有点久了,但是看完paper还是有觉得值得借鉴的地方,还是简单记录一下📝。

二 主要内容

2.1 backgrounds

deep learning容易对biased data产生过拟合的现象。

这里作者重点归纳了两种biased data情况:

  1. noisy data 标签有噪声数据
  2. long-tail data 长尾分布数据

这种过拟合自然会导致模型的生成泛化能力受到影响,而为了解决这个问题的一个思路就是进行sample reweighting,也就是对不同的样本设置不同的权重。 那reweighting的方法本质要学习的就是从不同样本到权重之间的映射关系,然后通过最小化加权之后的损失函数来优化模型参数。

2.2 related work

目前主要的sample reweighting方法可以分为两大类:

  1. 以focal loss为代表:
  • 单样本的loss越大 --> 认为这个样本更难分辨 --> 增加这个样本的loss权重;
  • 经典方法包括focal loss,AdaBoost,hard negative mining;
  • 这类方法主要适合用于解决long-tail数据,使得分布少的类别能拥有更高的权重;
  1. 以SPL为代表:
  • 单样本的loss越小 --> 认为该样本的标签可信度更高 --> 增加这个样本的loss权重;
  • 经典方法包括SPL,iterative reweighting,以及其他变种方法;
  • 这类方法适合用于解决noisy data问题,使得标签正确的样本拥有更高的权重;

下图以focal loss和SPL为例,直观给出了两类方法的差别,focal loss递增,SPL递减。


2.3 motivation

作者首先总结了现有方法的两大缺点:
1) 在现实无法预知data具体分布(long-tail还是noisy)的情况下,不知道要选递增型还是递减型。更何况,现实中可能出现的是long-tail并且noisy的数据分布;
2) 不管是哪一类方法,都需要超参数。

针对以上两点,该文的motivation就是能否设计一个自适应的且不需要超参数的reweighting方法,即找到一种从loss到weight的映射关系。

三 文章方法 Meta-Weighting-Net (MW-Net)

3.1 key idea

为了提出这样一个自适应的且不需要超参数的reweighting方法,文章的主要想法是用MLP来充当weight fucntion的作用,即让MLP自动学习从loss到weight之间的映射关系。然后用unbiased meta data来引导MLP的参数学习。

如下图所示,文章确实可以做到可以同时处理不同分布的数据(long-tail/noisy)。


3.2 具体方法

记整个分类网络为f(), 用于预测样本loss权重的MLP网络为\theta(), 网络的整体训练过程如下图:

可以重点关注箭头的颜色,红色的表示的是meta-weight-net的参数更新过程,而黑色的表示的整体分类网络的参数更新过程。对于时间t而言,最重要的几个步骤如下:

1) 对于分类网络f的参数w, 用从训练集中采出的minibatch data进行网络参数的更新,得到\hat w, 注意这里是暂时更新的\hat w,并没有替换原来f的参数w,可以理解为是一个临时变量。(图中step5)
2) 对于MLP网络为\theta(),用当前的\hat w预测得到的loss作为MLP网络的输入,得到输出的loss weights,用meta-dataset构建出来的minibatch data更新参数\theta, 得到t+1时刻的\theta,替换原来\theta()中的网络参数。(图中step6)
3) 用t+1时刻的\theta()和t时刻的w, 再次用训练集中采出的minibatch data进行网络参数的更新,得到w,这次的w才真正作为t+1时刻的w, 替换原来f()中的网络参数。(图中step7)

具体的公式可能看起来稍微有点复杂,但其实就是SGD在mini-batch上的优化。

最终的伪代码如下所示:

四 写在最后

整个思路还是比较巧妙的,而且之前的实验结果图也确实验证了方法能对不同分布的数据都有效。

目前还存在两点问题:
1) meta-dataset具体什么怎么构造的,为什么在更新MLP的时候不能用正常的mini-batch,而要用meta-dataset;
2) 参数更新为什么一定要分3步,直接a)更新w;2)更新\theta是不可以的吗

太细节的地方可能没有get到,欢迎知道的小伙伴多多交流。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,013评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,205评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,370评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,168评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,153评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,954评论 1 283
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,271评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,916评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,382评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,877评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,989评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,624评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,209评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,199评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,418评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,401评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,700评论 2 345

推荐阅读更多精彩内容