元学习综述-introduction

Meta-Learning in Neural Networks: A Survey
Citation: 236 (2021-08-29)

1. Motivation

一个典型的机器学习算法包含这样一些元素:
(1)从头训练(trained from scratch);
(2)针对一个特定的任务(for a specific task);
(3)使用一个固定的学习算法(using a fixed learning alogirthm);
(4)人工设计(designed by hand)。

深度学习在一些领域取得了巨大的成功:
(1)拥有丰富的数据;
(2)有巨大的算力资源。

元学习(Meta Learning)提供了一个新的学习范式:
机器学习模型从多个学习episodes(经历、片段?)中获取经验,这些episodes往往覆盖一些相近任务(related task)的分布,然后用这个经验来提升未来的学习效果。

近些年深度学习的成功可以看做是特征模型联合学习,而元学习可以看做是特征模型算法的联合学习。

2. Background

2.1 Formalizing Meta-Learning

2.1.1 Conventional Machine Learning

给定训练数据D = \{(x_1, y_1), (x_2, y_2), ..., (X_N, y_N)\},要学习一个预测模型\hat{y} = f_{\theta}(x)\theta是要学习的模型f的参数。
优化目标:L = \arg\min_{\theta}L(D;\theta,w)

L是损失函数,用来衡量真实值与预测值之间的差异。

w denotes the dependence of this solution on assumptions about 'how to learn'。不太好翻译,w表示当前解法的一些假设,比如参数\theta的优化方法的选择(哪种优化器)或者模型的选择等。

模型的泛化能力在一个有标签的测试数据上进行验证。

一般来说,传统的假设是对于每个问题,优化是从头开始学习的;w也是预先决定的。

就是这个预先决定,使得模型的效果以及泛化能力受到影响。因此,元学习从改变传统机器学习的第一假设开始,不使用确定的预先决定的假设,而是从一些任务的分布中来学习。

2.1.2 Meta Learning: Task-Distribution View

考虑任务T = \{D, L\},learning to learn变成,

min_w \mathbb{E}_{T \sim p(T)} L(D;w)

考虑M个source tasks,
D_{source} = \{(D_{source}^{train}, D_{source}^{val})^{(i)} \}_{i=1}^M,每一个task都有训练集与验证集,训练集叫support set,验证集叫query set

"Learning how to learn"的meta-training环节(学习meta-knowledge w)表示为,

w^* = \arg\max_{w} \log p(w | D_{source})

Meta-testing环节,D_{target} = \{(D_{target}^{train}, D_{target}^{test})^{(i)}\}_{i=1}^Q。根据学习到的meta-knowledge w^*在之前未见过的任务上训练baseline模型

{\theta*}^{(i)} = \arg\max_{\theta} \log p(\theta|w^*, {D_{target}^{train}}^{(i)})

2.1.3 Meta-Learning: Bilevel Optimization View

Meta-training提到的优化目标:

w^* = \arg\max_{w} \log p(w | D_{source})

求解方式是将meta-training当成一个bilevel optimization problem,即一个优化问题包含另一个优化问题当约束。

w^* = \arg\min_{w} \sum_{i=}^M L^{meta}({\theta^*}^{(i)}, w, {D_{source}^{val}}^{(i)})

s.t.{\theta^*}^{(i)} = \arg\min_{\theta}L^{task}(\theta, w, {D_{source}^{train}}^{(i)})

L^{meta}是外部优化目标(outer objective),L^{task}是内部(inner)优化目标。

优化内部目标时,不改变外部目标的优化对象w

2.1.4 Meta-Learning: Feed-Forward Model View

以一个线性回归示例,

min_w \mathbb{E}_{T \sim p(T), (D^{tr}, D^{val}) \in T} \sum_{(x, y) \in D^{val}}[(x^T g_w(D^{tr}) - y)^2]

总的来说,希望训练得到的w在从p(T)中采样出来的未知任务,以及未知数据D^{val}上有好的效果。

通过训练g_w,将一个训练集D^{tr}映射到一个weight vector上,从而让g_w为从p(T)中采样的未知任务提供一个好的solution。

References

[1] Hospedales, Timothy, et al. "Meta-learning in neural networks: A survey." arXiv preprint arXiv:2004.05439 (2020).

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,602评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,442评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,878评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,306评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,330评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,071评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,382评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,006评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,512评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,965评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,094评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,732评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,283评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,286评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,512评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,536评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,828评论 2 345

推荐阅读更多精彩内容

  • 注明:本文是对一篇整理166篇文献的综述翻译,其中对应文献地址都已附上为方便点击查看学习。查看有的文献可能需要科学...
    leon_kbl阅读 4,293评论 0 6
  • 小样本学习(Few-shot Learning)综述 摘要: 人类非常擅长通过极少量的样本识别一个新物体,比如小孩...
    雪夜的星_e40c阅读 637评论 0 1
  • 小样本学习(Few-shot Learning)综述 http://www.dataguru.cn/article...
    vieo阅读 929评论 0 0
  • 注明:本文是对一篇整理166篇文献的综述翻译,其中对应文献地址都已附上为方便点击查看学习。查看有的文献可能需要科学...
    leon_kbl阅读 2,805评论 1 5
  • 16宿命:用概率思维提高你的胜算 以前的我是风险厌恶者,不喜欢去冒险,但是人生放弃了冒险,也就放弃了无数的可能。 ...
    yichen大刀阅读 6,033评论 0 4