论文阅读——Attention-based Transactional Context Embedding for Next-Item Recommendation

Paper Reading —— Attention-based Transactional Context Embedding for Next-Item Recommendation

基于注意力的事务上下文嵌入下一项推荐

Abstract

在电商交易环境中向user推荐下一个item,这样的应用非常实用但是具有挑战性。Transactional context 是指在交易记录中的observed items。
大多数现有的推荐系统,主要是考虑recently occurring items 而不是 all the ones observed in the current context,这些算法通常假设交易中的items之间存在严格的顺序,但是这并不总是起作用,a long transaction(一个比较长的交易范围)通常包含许多对下一个选择的item没有关联或者说是没有用的item信息,这往往会overwhelm一些真正相关的item的影响。

举个栗子~
让我们举一个例子来说明上述问题。
用户首先将三个项目{milk,apple,orange}放入购物车中,
然后将{bread}添加到同一购物车中。
随后,交易被确定为{milk,apple,orange,bread}。
如果我们将前三个项目作为上下文而最后一个项目作为推荐的目标,
现有方法可能会建议{vegetables},如{green salad},
因为最近的上下文项目(orange和apple)。
但是,目标物品面包的选择可能取决于第一个项目(milk)。
在这种情况下,推荐系统应该更多地关注milk而不是orange和apple,
因为milk可能与下一个选择的bread更相关。
此示例显示了下一项建议的重要性,这可能会被交易中的无关项误导。
此外,真实世界的交易数据通常仅指示那些项目与项目之间的订单
(例如,项目时间戳)共同出现在交易中。
因此,推荐具有严格订单的交易项目可能是不可能和现实的。

作者提出一个推荐算法,这个算法不仅考虑当前交易中所有的observed items,而且还要用不同的relevance(相关性)对它们进行加权,以建立一个attentive context(注意力上下文),以高概率输出正确的下一个项目。模型——基于注意的事务嵌入模型(ATEM),用于上下文嵌入,以在不假定顺序的情况下对每个观察到的项目进行加权。对交易数据集的实证研究证明,ATEM在准确性和新颖性方面都显着优于最先进的方法。

Main Algorithm

问题描述与定义

推荐基于购物车序列( built onshoppingbasket-basedtransactiondata)

给定transactional dataset :

T = \{t_{1},t_{2},...,t_{|T|}\}

给定每个transaction :
t =\{i_{1},i_{2},...,i_{|t|}\}

所有交易中发生的所有项目构成整个item集I :
I =\{i_{1},i_{2},...,i_{|I|}\}

每个transaction是itemset的子集,且t里的并不是严格的交易顺序。

给定(target item)目标i_{s}\in t,除了item i_{s},所有属于t的items统称为context c,其中c=i_{s}\setminus t

特别地,attentive context意味着上下文中的项目对下一项目推荐的上下文嵌入有不同的贡献。

给定context c,本文的ATEM模型可以构建并训练为 item i_{s} 在 set t \setminus i_{s}出现的条件概率P( i_{s} | c), 通过每次拾取每个instance作为目标项目,为每个事务t构建总共|t|个训练实例。

因此,TBRS被归结为根据给定上下文中的条件概率对所有候选项进行排名。

在预测阶段,基于上下文c的attentive embedding来计算条件概率。 这种嵌入是建立在c中包含的所有上下文项目的基础上,利用 注意力机制 (attention mechanism)来学习每个上下文项目的权重。

模型建立&模型学习

TimLine截图20180929174506.png

总的来说,从下到上,提出的ATEM模型包括输入层,项嵌入层,上下文嵌入层,输出层,以及项和上下文嵌入层之间的attention层,如上图所示。从输入到输出逐层解释模型的工作机制。

Item Embedding
给输入层提供上下文项集c,底部的输入单元构成一个独热编码矢量,其中只有位置i_{j},(i_{j} \in c)的所在单元被设置为1而所有其他单元被设置为0。每个独热编码vector长|I| context c 一共有|t|个独热编码构成。

由稀疏的单热矢量传递的信息是有限的。 在ATEM中,我们创建了一个嵌入机制,将这些向量映射到项嵌入层中的信息性和低维向量表示,其中K维实值向量

Motivation

推荐系统(RS)发挥着重要作用,特别是在商业领域。然而,大多数现有的RS理论面临各种问题,例如倾向于重复与用户可能已经选择的类似的项目。

在现实数据场景中,用户可能更喜欢新颖且与手头上现有的不同的项目。为了解决这个问题,需要在交易上下文中进行新的推荐,即在交易中已经选择的内容中挖掘。一方面,分析基于RS交易序列,通过分析交易间耦合关系,产生更合理和可靠的新交易建议,例如下一个购物车(basket)和下一项目(item)建议。这些与基于user profile和item profile构建的典型RS方法完全不同。

然而,当一个items集合被放入一个transaction时,仍然不清楚应该下一个项目应该推荐什么。这产生了通过分析事务内依赖性来推荐事务上下文下的下一项的需要。

(transactional context:用于推荐下一个项目的上下文是指对应的项目相关交易,例如,由多个所选项目组成的购物篮记录)

Related

了解transaction context中items之间的相关性和转换非常具有挑战性。在TBRS中,一个普遍的挑战是建立一个注意力(attention)的背景,以高概率输出真正的下一个选择。

一些现有方法旨在通过将transaction as the context来生成推荐。然而,大多数现有TBRS利用具有排序假设的部分上下文。

顺序模式挖掘(2012)用于使用具有严格顺序假设的items之间的关联来预测下一项。但是,上下文中的项可能是任意的,这可能无法匹配任何已挖掘的模式。

马尔可夫链(MC)(2012)是建模顺序数据的另一种方法。然而,MC只捕获从一个项目到下一个项目的转换,而不是从上下文序列中捕获,即,它只能捕获第一次转换。

最近,基于矩阵隐式因子分解(MF)的方法(2016)将转移概率的矩阵从然而,由于现实世界中的幂律分布数据,MF很容易受到稀疏性问题的困扰(2016)。

受Deep Learning的巨大成功的启发(2015),应用深度递归神经网络(RNN)来模拟顺序数据的事务,但由复杂结构引起的高计算成本阻止了其应用于大数据。

此外,MC,MF和RNN最初是为具有严格自然顺序的时间序列数据而设计的,因此它们不具有无序的交易。

(例如,或面包是否首先放入购物车中没有区别。另外,现有方法不能有效地加权上下文中的项目,即更多地关注那些相关项目。这种注意区分非常重要,特别是对于长期交易而言,这些交易往往包含许多与下一个选择无关的项目。)

最近,受心理认知方案的启发,注意机制在上下文学习相关方面显示出惊人的潜力。 通过搜索图像中与答案相关的区域,呈现用于图像问题回答的堆叠注意网络(SAN)。 另一个新模型在人类关注的指导下学习句子表征(Shaonan,Jiajun和Chengqing 2017)。 鉴于CV和NLP中的上下文学习注意机制的巨大成功,我们结合了一些想法并提出ATEM来模拟下一个项目推荐的注意上下文。

Contribution

本文通过提出一种基于注意力的交易嵌入模型(ATEM)来解决需求。 ATEM通过识别与下一个选择具有高度相关性的上下文项,在交易中的所有观察项目的嵌入(Embedding)上构建了一个关注的上下文(attention context)。构建了一个浅宽的广泛网络(wide-in-wide-out network)(Goth 2016),以减少时间和空间成本。具体而言,作者将注意机制(Shaonan,Jiajun和Chengqing 2017)纳入浅层网络,以在没有严格排序假设的情况下在事务中构建所有观察项目(observed items)的注意上下文(attention context)。由于注意机制,所提出的模型能够更多地关注更相关的items,而更少关注不太相关的items。因此,ATEM更有效,更强大,可以预测具有较少约束的事务中的下一个item。这项工作的主要贡献如下:

  • 基于注意力的模型学习一种注意力的上下文嵌入,强化了相关项目但忽略了与下一个选择无关的项目。 我们的方法不涉及对事务中项目的严格排序假设。

  • 浅宽的宽广网络实现了ATEM,它对于大量项目的学习和预测更有效和高效。

  • 实证研究表明

    ATEM在准确性和新颖性方面明显优于两个真实数据集上的最新TBRS;

    通过比较有无注意机制的方法,注意机制对TBRS产生显着差异。

Summary

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343

推荐阅读更多精彩内容