因果推断推荐系统工具箱 - IV4Rec(二)

文章名称

【CIKM-2019】【Gaoling School of Artificial Intelligence/Kuaishou Technology】A Model-Agnostic Causal Learning Framework for Recommendation using Search Data

核心要点

文章旨在解决现有在推荐系统中存在confounder导致偏差,并影响推荐效果的问题,提出模型无关的IV4Rec框架,能够从向量表示中有效地拆分因果关系和统计关联。该方法利用用户的搜索行为向量作为IV,来分解用户的推荐行为向量中的因果部分,并将分解的向量传入任意深度模型得到最终的推荐结果。

上节介绍了文章的研究背景,并介绍了,作者融合用户搜索行为和推荐行为,利用搜索embedding作为IV,消除推荐embedding的偏差的思路,以及如何构造treatment和IV。本节继续介绍如何利用IV从treatment中消除偏差,并最终得到推荐结果。

研究背景

如前所述,许多大型平台,同时提供搜索和推荐的服务,用户的历史搜索行为是不受当前推荐场景的confounder的影响的,并且又只通过影响用户和物品的embedding来影响当前推荐场景下用户对物品的偏好,很好的符合IV[1, 5]的要求。因此,作者利用用户的历史行为分别构建基于推荐行为的treatment和基于搜索行为的IV,利用IV的性质,来消除推荐confounder带来的偏差。

作者认为,搜索场景下的embedding不会受到推荐场景中的confounder的影响,例如曝光位置,物品流行度等等,并且搜索场景的embedding只通过影响推荐场景的embedding来影响用户在推荐场景的交互行为。个人理解,这里的搜索embedding是推荐中用到的用户搜索行为的历史信息。基于此,作者把\mathcal{ T}^{}_{u, i}, \mathcal{ Y }^{}_{u, i}, \mathcal{ Z }^{}_{u, i}分别视为treatment,outcome和instrument variable。并可以从treatment中disentange出因果关系embedding和非因果关系embedding \hat{\mathcal{ T }}^{}_{u, i},\tilde{\mathcal{ T }}^{}_{u, i}

方法细节

方法架构

IV4Rec

IV4Rec的整体框架如下图所示,主要包括3个步骤,

framework of IV4Rec

上一接介绍了前2个步骤,构造treatment和IV,我们回顾一下具体流程。

  • 构造Treatment,\mathcal{ T }^{}_{u, i}。如前所述,作者把treamtment定义为一系列embedding的组合,包括目标物品i的embedding和用户的历史行为embedding(当然还可能包括一些其他的上下文或用户的基础属性等,这里只利用用户的交互行为作为embedding输入),可以被形式化的表示为如下图所示。其中\mathcal{ I}^{}_{u},j表示用户历史交互物品的集合及其标号(注意,下标j包括目标物品i)。这里的embedding可以利用,例如BERT之类的序列模型得到。

    treatment embedding
  • 构造Instrument Variable,\mathcal{ Z}^{}_{u, i}。作者把搜索行为的一系列矩阵当做Instrument Variable,可以被形式化的表示为如下图所示。其中,每一个矩阵\boldsymbol{ Z}^{}_{j}表示针对物品j的Top-K Query的embedding所组成的矩阵(注意,下标j包括目标物品i,并且,这里的每一个物品都和上边推荐,也就是treatment集合里的物品对应)。值得注意的是,这里的Top-K是利用在对应query下,物品j的点击量排序得到的。同样的,这里的每一个embedding可以利用语言模型得到。

    search embedding

接下来,继续介绍剩下的1个步骤。

  • 重建Treatment,\mathcal{ T }^{re}_{u, i}。这一步主要是利用IV方法,重建具有因果关系的treatment表示,作者采用2SLS,首先利用将\mathcal{T}^{}_{u, i}回归到\mathcal{Z}^{}_{u, i},得到第一阶段的结果,即所谓的不受confounder影响的treatment表示\mathcal{ \hat{T} }^{}_{u, i}。其具体的计算公式如下图所示。其中,\boldsymbol{t}^{}_{j}, \boldsymbol{Z}^{}_{j}表示对应物品的treatment向量和Top-K搜索矩阵。

    无偏的treatment回归效果

    投影函数

    投影函数是Top-k搜索向量与“投影向量”{\tau}^{}_{j}的点击,而{\tau}^{}_{j}是如下图示的公式的解。也就是说,{\tau}^{}_{j}是能够使得Top-K查询矩阵\boldsymbol{Z}^{}_{j},在投影后与经过非线性变换MLP_0之后的\boldsymbol{t}^{}_{j}更接近的向量。(该公式还可以被表示为第二个等号后的部分,其中\boldsymbol{ Z }^{ \dagger }_{j}是Moore-Penrose pseudoinverse,也就是广义逆。个人觉得这里其实和主线没太大关系,略微有点炫技了。)

    投影向量的求解方式

    投影后的treatment向量,也就是反应因果关系的向量\hat{t}^{}_{j}被作者成为fitted part。同样的利用如下图所示的公式,可以得到剩余的残差部分,反映了treatment中non-causal的部分,或者说收到confounder影响到那一部分,被作者称之为residual part。

    投影后的残差

    作者表示,分开使用treatment的causal和non-causal信息,可以有利于模型学习真正的关联性。并且,传统的2SLS一般用线性回归,而作者使用MLP使得模型能够更多的从深度学习的非线性能力中受益。
    得到\mathcal{ \hat{T}^{}_{} }^{}_{u, i}\mathcal{ \tilde{ T} }^{}_{u, i}之后,可以将两部分重新构建为\mathcal{ T }^{re}_{u, i}。其中,{\alpha}^{1}_{j} = {MLP_1}({MLP_0}({t}^{}_{j}), \boldsymbol{Z}^{}_{j}), {\alpha}^{2}_{j} = {MLP_2}({MLP_0}({t}^{}_{j}), \boldsymbol{Z}^{}_{j})分别表示两部分的重构权重。

    重构treatment

    值得注意的是,作者强调,不同于传统的causal inference要从观测数据中准确识别因果效应,推荐场景还是要准确预测线上的数据。而[44]表明在推荐场景,non-causal是能够帮助准确预测的(这里在心得体会部分有讨论)。因此,需要把两部分都传给下游任务去学习。

得到每一个物品的重构向量{t}^{re}_{j} \in \mathcal{ T }^{re}_{u, i}之后,可以根据如下图所示的公式,在每一次推荐请求的时候,利用用户行为历史中对应的物品集合,得到用户的(treatment)重构向量。其中,{t}^{re}_{1} \in \mathcal{ T }^{re}_{u, i},而{p}^{}_{u}是用户当次查询的其他上下文向量。

重构推荐预测的用户向量

最终,利用如下图所示的公式得到用户的推荐预测结果,并用交叉熵损失进行训练。{t}^{re}_{i} \in \mathcal{ T }^{re}_{u, i}是目标物品的重构treatment向量。

prediction of recommendation
training objective

心得体会

扩展最小二乘

个人理解,作者提出的方法可以被理解为利用深度学习扩展的2SLS,只不过具体应用到了推荐场景,并且以历史搜索行为作为IV。可以说,使用的比较巧妙,并且融入了很强的业务。

non-causal

作者在文中提到,non-causal的部分能够帮助更好的对观测数据进行预测。个人理解,这是因为观测数据毕竟是有偏差的,无论是测试集还是训练集,所以都需要non-causal的部分。

其实,所谓的non-causal部分,在诸如Learning Decomposed Representation for Counterfactual Inference[*1]等文章中已经被进行了详细的研究,感兴趣的可以参阅因果推断深度学习工具箱 - Learning Decomposed Representation for Counterfactual Inference

文章引用

[1] Belloni A, Chen D, Chernozhukov V, and Hansen C. 2012. Sparse models and methods for optimal instruments with an application to eminent domain. Econometrica 80, 6 (2012), 2369–2429.

[5] V. Chernozhukov, G. W. Imbens, and W. K. Newey. 2007. Instrumental variable estimation of nonseparable models. Journal of Econometrics 139, 1 (2007), 4–14.

[44] Yang Zhang, Fuli Feng, Xiangnan He, Tianxin Wei, Chonggang Song, Guohui Ling, and Yongdong Zhang. 2021. Causal Intervention for Leveraging Popularity Bias in Recommendation. In Proceedings of the 44th International ACM SIGIR Conference on Research and Development in Information Retrieval (Virtual Event, Canada) (SIGIR ’21). Association for Computing Machinery, New York, NY, USA, 11–20

[*1] Wu, Anpeng, Kun Kuang, Junkun Yuan, Bo Li, Pan Zhou, Jianrong Tao, Qiang Zhu, Yueting Zhuang and Fei Wu. “Learning Decomposed Representation for Counterfactual Inference.” ArXiv abs/2006.07040 (2020): n. pag.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
禁止转载,如需转载请通过简信或评论联系作者。
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,732评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,496评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,264评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,807评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,806评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,675评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,029评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,683评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,704评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,666评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,773评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,413评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,016评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,204评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,083评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,503评论 2 343