以下内容纯属个人见解,欢迎大家交流。
发布于2020 AAAI
1.motivation
1.1问题
(1) 对用户短期兴趣建模有难度 the hardness of modeling the short-term user interests;
(2) 获取用户长期兴趣有难度 the difficulty of capturing the long-term user interests;
(3) 物品共现模式的有效建模 the effective modeling of item cooccurrence patterns.
1.2解决办法
应用图神经网络在短期内为项目上下文信息建模,并利用共享内存网络捕获项目之间的长期依赖关系。使用双线性函数来捕获相关项目的同现出现模式。
2.相关介绍
1.一个物品是否会被交互非常依赖于其是否之前被此人交互过,此类属性有助于实际的应用场景-顺序推荐。
2.用户短期兴趣描述了给定短期内几个最近访问的项目的用户偏好。 用户的长期兴趣捕获了较早访问的项目与用户将来将访问的项目之间的长期依赖关系。 物品共生模式说明了诸如手机和屏幕保护器等共同相关物品的共同出现。
3.模型介绍
3.1对总体(general)的静态兴趣建模
任务该部分用户的兴趣不随时间变化,不与序列相关,采用矩阵分解。得到
3.2短期兴趣建模
进行了滑动窗口策略,将项目序列拆分为细粒度的子序列。我们提取每个$| L | $连续项作为输入及其下一个$| T |$ 项目作为要预测的目标,表示用户u的第l个子序列。
3.2.1构造项目图
对于项目序列中的每个项目,我们提取几个后续项目(实验中为三个项目)并在它们之间添加边。 我们为每个用户执行此操作,并计算所有用户中提取的项目对的边数。 然后,我们对邻接矩阵进行行归一化。 这样,可以提取顺序中彼此看起来更接近的相关项目。我们将提取的邻接矩阵表示为A,其中表示关于项目i的项目k的标准化节点权重。 第i个项目的相邻项目记为
3.2.2短期兴趣聚合
采用两个GNN来聚合中的相邻项
对于中的第j项,其输入为,则短期兴趣为
都是一些先求和再连接的基本操作
3.3长期兴趣建模
用表示短期兴趣之前未考虑的物品序列,应用了多维注意模型来生成查询嵌入(query embedding)。形式上,我们将中的项嵌入表示为。 生成查询嵌入的多维注意力计算为
PE(·)正弦位置编码函数,可将项目位置映射到位置嵌入中,与Transformer中使用的相同.
。是注意力分数矩阵。是查询(query)的矩阵表征,h行中的每行代表查询的不同方面。 最后,对平均不同方面进行平均的组合查询嵌入。
给定嵌入的查询,我们使用此查询查找内存网络中共享用户潜在兴趣的适当组合。 形式上,存储网络的键和值分别表示为和,其中m是存储网络中存储单元的数量。 因此,用户长期兴趣嵌入可以建为:
其中是第i个存储单元,上标H表示表示来自用户长期兴趣。
3.4长短期兴趣融合
借鉴了LSTM的思想,该思想使用可学习的门来平衡当前输入和历史隐藏状态。 同样,我们提出了一个可学习的方法来控制最近的用户兴趣表示和长期的用户兴趣表示对项目预测的组合用户兴趣有多大贡献
3.5物品共生模式建模
为了捕获项目共现模式,使用双线性函数显式建模中的项目与其他项目之间的成对关系。 该函数采用以下形式 ,