(译)Collaborative Memory Network for Recommendation Systems

Abstract:

Recommendation systems play a vital role to keep users engaged with personalized content in modern online platforms. Deep learning has revolutionized many research fields and there is a recent surge of interest in applying it to collaborative filtering (CF). However, existing methods compose deep learning architectures with the latent factor model ignoring a major class of CF models, neighborhood or memory-based approaches. We propose Collaborative Memory Networks (CMN), a deep architecture to unify the two classes of CF models capitalizing on the strengths of the global structure of latent factor model and local neighborhood-based structure in a nonlinear fashion. Motivated by the success of Memory Networks, we fuse a memory component and neural attention mechanism as the neighborhood component. The associative addressing scheme with the user and item memories in the memory module encodes complex user-item relations coupled with the neural attention mechanism to learn a user-item specific neighborhood. Finally, the output module jointly exploits the neighborhood with the user and item memories to produce the ranking score. Stacking multiple memory modules together yield deeper architectures capturing increasingly complex user-item relations. Furthermore, we show strong connections between CMN components, memory networks and the three classes of CF models. Comprehensive experimental results demonstrate the effectiveness of CMN on three public datasets outperforming competitive baselines. Qualitative visualization of the attention weights provide insight into the model’s recommendation process and suggest the presence of higher order interactions.

译:

第一章中,作者阐述了提出协记忆网络的初衷:它是一种将两类CF模型(UserCF/ItemCF):基于LFM的全局结构和基于邻域的局部结构,用非线性方法进行统一实现的深度结构模型。基于记忆网络的成功应用,提出了一种由记忆元件和神经注意力机制组成的邻域元件。记忆模块中用户和物品记忆的关联寻址方案编码了用户-物品的复杂联系外加注意力机制,用来学习一种用户-物品的特殊邻域。最终,输出模块联合利用了存有用户-物品记忆的邻域来生成排序分数。集成多个记忆模块作为一个深度结构可以捕捉更加复杂的用户-物品关系。更进一步的,我们展示了CMN组件、记忆网络、和三种CF模型之间的强联系。综合实验结果证明了CMN在公开数据集的表现超过了其他有竞争力的baseline。作者还可视化的展示了注意力权重,能够直观的看出CMN的推荐过程。

INTRODUCTION:

作者在介绍中首先阐述了一下几种传统CF方法。

基于记忆或邻域的方法:根据用户的历史交互信息识别相似用户或商品的群组或邻域。例如KNN,在亚马逊的推荐系统中应用很成功。

基于隐语义模型的方法:将用户和物品映射在一个共同的低围空间上,能够捕捉两者间潜在关系。

两者对比:前者显然会忽略绝大多数商品的评分,因为它在用户和商品的交互反馈中只会选择K个记录;但LFM恰恰相反,捕捉到全局结构的同时容易忽略少数物品之间的强联系。两种方法的弱点和强项导致了“杂交模型”的产生:例如SVD++或因子分解机FM。

接下来简单的介绍了一下网络的三种构成元素:

1. memory component(记忆元件):有读写机制,用内部记忆来编码复杂的用户和商品关联性;

2.  associative addressing scheme(关联寻址方案):类似NN(nearest neighborhood)模型,根据可变的(adaptive)用户-物品状态找到有语义相似性的用户。

3. attention mechanism(注意力机制):注意力机制会在有相似偏好的特殊用户子集上放置一个高权重,进而形成一个collective neighborhood summary

最终局部的neighborhood summary和全局的latent factors(潜在语义)之间会有一个非线性相互作用来生成排序分数;集成多个记忆元件有助于挖掘和推断一些清晰明确的邻域。

Memory Augmented Neural Networks:

记忆神经网络通常有两部分构成:一个外部存储器,包含矩阵(Input Matrix)和控制器(Neural Networks),用于在内存上进行读写删操作。这样,记忆元件能够增加模型容量,而不依赖于神经网络,同时能够提供一个知识的内部表示,进而可以追踪长期依赖或者进行推理。神经网络通过content-based或者location-based来操作这些存储器。基于内容的或者关联寻址在给定的问题和一段文本之间寻找一个打分函数,通常内积操作之后接上softmax,这样就可以对每个内存地址进行软读(softly reading)。内存上的软读操作使得模型能够维持差异和区别,因此可以用反向传播训练。而location-based寻址可以执行序列读取或随机存取。

Memory Network最初的框架是由Weston提出的。他证明了在合成问答任务上追踪长期依赖在一定程度上是合理的。Sukhbaatar等减轻了将原始记忆网络训练成端到端系统的强监督性。注意力的概念是从生物学中获得的灵感:人类在面对一个特定事件(例如观察图片)时不会同等的处理所有信息,而是会关注特定的有效信息子集。注意力机制通过可视化注意力权重提供了对深度学习黑盒性的一种洞察。Kumar等在现有的框架上进行了改进,引入了一个情景记忆组件,在生成最终答案前允许多次对内存进行传递或修改。记忆网络架构的灵活性使其能够进行可视化的问答和联合任务学习,以识别情绪和与目标实体的关系。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,839评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,543评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,116评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,371评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,384评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,111评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,416评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,053评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,558评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,007评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,117评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,756评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,324评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,315评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,539评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,578评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,877评论 2 345

推荐阅读更多精彩内容

  • 1、我们学习了一个厉害的“温度计”,可以指导我们投资。那是不是只要指数温度低,基金价格就低呢?说明你的理由哦~ 答...
    hs0422阅读 861评论 0 0
  • 温馨提示:全文约:800字,建议阅读:6分钟 ——————————————————————————————————...
    王家大脸阅读 646评论 1 0