图神经网络自监督学习工具箱 - MERIT(二)

文章名称

【IJCAI-2022】【Faculty of IT/Nanjing University of Science and Technology】Multi-Scale Contrastive Siamese Networks for Self-Supervised Graph Representation Learning

核心要点

文章旨在解决现有图神经网络方法严重依赖标注样本的问题,提出MERIT方法,基于图自监督学习和BYOL[Grill et al., 2020]的思想,利用online和target network在2个对比视图上进行对比学习,设计了cross-netowrk(对比online和target network的输出)和cross-view(对比同一个network中2个不同视图的输出)来学习可以使下游任务受益的节点表示。

上节介绍了作者的研究主题和解法思路,并介绍了如何构建增广视图,本节继续介绍图对比方法。

研究背景

为了解决图神经网络对标注样本的依赖,许多图对比学习方法被提出。它们通过对比不同增广视图下的样本向量表示,学习可迁移的、鲁棒的向量表示。其中一部分对比学习方法基于互信息最大化,作者认为这些方法,存在两个问题,

  • 现有的基于MI的对比学习方法,通过额外的估计器判断(大量)正负样本的相似性,计算量较大且对估计器的选择比较敏感[Tschanen et al., 2020]。
  • 此外,大多数现有的GCL方法严重依赖大量的负样本来避免平凡解(collapse),这些负样本可以被视为正则项,指导着模型学习的方向,因此需要慎重选择。

在图像自监督学习领域,为了解决上述问题,BYOL[Grill et al. 2020]提出利用非对称的Siamese Network以及stop gradient和Moving average updating技术,在没有负样本参与的情况下,解决了模型坍塌到平法解的问题(BYOL被视为是一种predictive self-supervised learning方法)。

作者提出将上述方法引入图神经网络自监督学习中,结合非对称孪生网络和对比学习的优势,实现多视图以及不同网络间的对比自监督学习。

方法细节

MERIT的目标是在给定图\mathcal{G} = ({X}^{}_{}, {A}^{}_{})时,学习图中节点的表示H = {{g}^{}_{\theta}}(X, A),并可以将该节点表示直接用于下游任务,例如节点分类等。

MERIT的整体框架如下图所示,包括3个重要的组成部分。


framework of MERIT
  • Cross-network contrastive learning

    MERIT采用Siamese结构,包括两个结构相同但参数不同的网络online和target network,(g_\theta, p_\theta),(g_\zeta, p_\zeta),且target network的参数由下图所示的滑动平均公式决定。

    momentum updating mechanism

    此外,为了防止模型坍缩,产生平凡解,还在online network中引入了一个额外的预测网络{q}^{}_{\theta}。Cross-network对比学习任务是通过对比,某个节点v_1在一个增广视图下的online network表示{h}^{1}_{v_1}和该节点在另一个视图的target network下的表示\hat{z}^{2}_{v_1}来学习节点表示。具体流程如下图Figure2中的子图a所示,其中H, Z分别表示在输入预测网络{q}^{}_{\theta}前后的节点表示,而Z,\hat{Z}分别表示online和target network得到的节点表示。上标用于区分不同的view。

    cross-netowrk and cross-view task

    BYOL中并没有采用负样本对,而作者认为利用额外的负样本能够起到对boostrap loss进行正则的效果,针对某一个节点的损失函数如下图所示。{v}^{}_{i}, {v}^{}_{j}是一对负样本。

    cross-network loss of a single node

    由于为了防止坍缩到平凡解,引入了非对称network设计,即{q}^{}_{\theta}的存在,作者对调了不同view传给online和target network的角色,得到对称损失,具体如下图所示

    cross-network loss
  • Cross-view contrastive learning
    cross-netowrk对比任务相当于进行了两个维度的跨越对比,而传统的GraphCL更多在同一个network(encoder)下的不同view间进行对比。因此作者引入了cross-view对比任务,其示意如上图Figure2子图b所示,包含两种cross-view对比任务。

    • inter-view contrastiveness。此类对比任务拉近同一个节点{v}^{}_{1}在不同view下的节点表示(子图两个view间的红线),并推远该节点与其他节点,例如{v}^{}_{2}等,的距离(子图两个view间的蓝线)。具体损失函数如下图所示,注意损失中只是变换了上角标,但是向量并没有从h变成z

      inter-view cross-view loss
    • intra-view contrastiveness。此类任务推远同一个view下目标节点{v}^{}_{1}与其他节点,例如{v}^{}_{2}等,的距离(子图上边view里的绿线),作者表示这里的负样本是同view下的任意节点(个人感觉值得商榷,参见心得体会部分)。具体损失如下图所示。

      ntra-view cross-view loss

      可以看出,公式8和公式7的区别仅仅是分母的部分。这其实相当于强调了正样本对的语义。

值得注意的是,作者强调并没有在target network上引入cross-view的对比学习任务,因为target network没有直接的梯度回传,并且我们的目标是学习online network来作为encoder。 最终cross-view的整体损失如下图所示。

single view cross-view loss

totol cross-view loss

模型的整体损失如下图所示。值得注意的是,在预测阶段,作者利用原始图输入和graph diffusion之后的数据,一起作为输入来学习节点表示(分开学之后求和),作为最终的向量表示。

total loss

心得体会

数据增广

Multipe Scale

作者所表述的Multi-Scale实际上包含了两个维度,模型(network)维度和增广视图(view)维度。利用了跨不同维度的组合实现了不同层级的对比。作者在文章提到,类似BYOL的online和target结构能够帮助online network学习到平稳的语义信息。而不同视图则提升抗扰动的能力。结合两种(跨越两种)维度能同时学习两方面的信息。

intra-cross-view

个人感觉,view内的对比任务值得商榷(Fiugre2绿色线),一些研究表明,相连的节点具有相似的语义特性或属性,被称为proximity或Homophily。如果推远这样的节点的表示有可能会降低模型性能。

文章引用

[Tschannen et al., 2020] Michael Tschannen, Josip Djo- longa, Paul K Rubenstein, Sylvain Gelly, and Mario Lu- cic. On mutual information maximization for representa- tion learning. In ICLR, 2020.

[Youetal.,2020] YuningYou,TianlongChen,YongduoSui, Ting Chen, Zhangyang Wang, and Yang Shen. Graph con- trastive learning with augmentations. In NeurIPS, 2020.

[Klicpera et al., 2019] Johannes Klicpera, Stefan Weißenberger, and Stephan Gunnemann. Diffusion improves graph learning. In NeurIPS, 2019.

[Grill et al., 2020] Jean-Bastien Grill, Florian Strub, Florent Altche, Corentin Tallec, Pierre Richemond, Elena Buchatskaya, Carl Doersch, Bernardo Avila Pires, Zhaohan Guo, Mohammad Gheshlaghi Azar, Bilal Piot, koray kavukcuoglu, Remi Munos, and Michal Valko. Bootstrap your own latent - a new approach to self-supervised learning. In NeurIPS, 2020.

©著作权归作者所有,转载或内容合作请联系作者
禁止转载,如需转载请通过简信或评论联系作者。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343

推荐阅读更多精彩内容