恒源云(GPUSHARE)_Y-Tuning: 通过对标签表征进行微调的深度学习新范式【ACL 2022】

文章来源 | 恒源云社区

原文地址 | 【ACL 2022】

原文作者 | Mathor


小编此刻内心OS:不能怪大佬产出高~是我不努力!
打工人打工魂,站起来,开始搬运!!!

正文开始:

ACL2022有一篇名为《Y\mathcal{Y}Y-Tuning: An Efficient Tuning Paradigm for Large-Scale Pre-Trained Models via Label Representation Learning》的投稿,从标题上就吸引了我的注意,不同于Fine-Tuning、Adapter-Tuning、Prompt-Tuning,这篇文章的创新之处在于,不调整输入文本特征与大规模预训练模型的参数,仅通过学习标签的特征,以往很少见到论文去学习标签的特征。虽然最终效果可能仍无法与微调相比,但它在节省计算成本方面有很大的优势,并有可能通过后续研究进一步提高性能

PRELIMINARIES OF TUNING PTMS

对于NLP任务来说,通常都含有输入文本x\in \mathcal{X}以及标签y\in \mathcal{Y}\,其中\mathcal{X}的特征空间是离散的(例如One-hot)。以情感分析(Sentiment Analysis, SA)任务为例,输入句子


标签集\mathcal{Y}=postive, \text{negative}中的标签y=\text{postive}为真实标签

定义\phi : \mathcal{X}\to \mathcal{Z} \为输入句子到高维稠密向量空间的映射,f: \mathcal{Z}\to \mathcal{Y}为改向量空间到标签空间的映射。给定训练集\mathcal{D},我们可以定义损失函数为\ell: \mathcal{Y}\times \mathcal{Y}\to \mathbb{R}^+\,并且可以通过以下方法找到最佳的f\phi


通常来说,即便分类器f很简单,但只要有一个好的特征提取器\phi(x),下游任务中的表现就不会差

上面的内容删减自原论文,论文中的描述有些抽象,说白了实际上\phi可以看作是BERT,f就是为了满足不同的下游任务,而接在BERT后面的一些层,例如文本分类后面接的就是一个Linear层

\mathcal{Y}-TUNING

我们定义(x,y)是一个有标签的训练样本,\phi^{\star}是在大规模语料上训练好的预训练模型,并且在接下来始终固定\phi^{\star}的参数不更新。传统做法是微调特征提取器\phi^{\star}的参数,使其接近真实标签。\mathcal{Y}-Tuning的做法是固定 \phi^{\star}的参数,转而微调标签提取器\psi的参数,并且我们使用Cross Attention将\phi^{\star}(x)\psi(\mathcal{Y})的特征进行融合,如下图所示


损失函数为Triplet Loss,形式如下:


其中,[x]_+=\max (x, 0)\alpha是一个边界超参数,用于控制正负样本间的距离。在训练过程中,给定训练集\mathcal{D},我们可以通过如下方式找到最佳的模型参数

在推理阶段,我们可以使用如下方式获得预测值:


AN IMPLEMENTATION OF \mathcal{Y}-TUNING

论文图中的模型架构主要由三个部分组成:

  1. 用于提取文本特征的\phi,这个部分一般是Encoder类模型,例如BERT等
  2. 用于提取标签特征的\psi,这个部分一般采用Transformer的Decoder结构,因为需要有Cross-Attention的部分对标签特征和文本特征进行交互
  3. 用于预测类别的标签指针(Label Pointer),这个部分比较简单,用一个平均或者最大池化将高维向量转为低维向量即可

Label Embedding

给定一个标签集\mathcal{Y},我们首先将标签y\in \mathcal{Y}\映射为一个或多个连续的向量。当然,除了标签外,我们还需要将任务相关的信息映射为向量,例如情感分析任务,我们会在最前面添加一个SA标志

这其实有点像mBART,在做机器翻译的时候将该语言对应的标志(例如ZH、JP、EN等)添加到句子前面

因此,初始的标签特征为


其中,e_T 表示任务相关的embedding,e^{c} 表示第c个类别的embedding,ND分别表示样本数量以及标签的表征的维度。实际上每个标签都可以用多个向量来表示,作者也做了一个对比实验,研究每个标签用多个向量来表示会对结果产生什么影响


有很多方法将标签y映射为一个向量,例如从Vocabulary、均匀分布、token embedding中采样等

Self-Attention and Cross-Attention

我们首先使用self-attenion加强不同标签间的信息交互


其中,\mathbf{Q}\in \mathbb{R}^{N\times D_k}, \mathbf{K}\in \mathbb{R}^{M\times D_k}, \mathbf{V}\in \mathbb{R}^{M\times D_v}\,如果在self-attention中,N=M;如果在cross-attention中,N代表输入句子的长度,M代表标签输入的长度
在cross-attention中

其中,{X}是输入句子通过PTMs后的高维向量

Label Pointer

所有计算完成之后,我们会得到输出向量


其中,{h}_T是任务相关的描述特征,h_c是类别为c的标签特征。Triplet Loss的定义如下:

其中,c^{\star}代表正确标签对应的索引

MODEL ANALYSIS

假设我们有一个L层的预训练模型,它的复杂度为\mathcal{O}(LM^2),其中M是输入句子长度;一个有着长度为P的连续型Prompt,它的复杂度为\mathcal{O}(L(M+P)^2);对于\mathcal{Y}-tuning来说,self-attention与cross-attention的复杂度分别为\mathcal{O}(N^2)以及\mathcal{O}(MN),其中N为标签集的大小。因为在\mathcal{Y}-tuning中我们是固定预训练模型参数不训练的,因此预训练模型的部分不会占用计算资源(尤其是反向传播过程)

RESULT


从实验结果上来看,效果算是「很有竞争力」,我们当然不能拿它与传统的FineTune相比,毕竟可训练的参数少了那么多,训练所需的算力也不是一个数量级的

个人总结

本文提出的\mathcal{Y}-Tuning思路非常有意思,传统思路是对输入句子进行学习,使其输出向量靠近标签的分布;而这篇文章正好相反,对标签进行学习。让我有些意外的点是,损失函数并不是传统的CrossEntropyLoss,因为在我看来就直接将输出向量转换维度之后与真实标签进行对比就好了。但是论文使用的损失函数是Triplet Loss,不知道为什么作者为什么要这样做

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容