论文笔记之Wide & Deep Learning for Recommender Systems

Wide & Deep Learning for Recommender Systems

文中指出推荐系统的一个挑战是同时实现memorization和generalization。
memorization指在历史数据中挖掘一些频繁共现的物品或特征,以及一些相互作用关系。
generalization指探索一些在过去未出现的新的特征组合。
基于memorization的推荐通常更加关注user已经有过动作的item。而基于generalization的推荐会使得推荐的item更加的丰富和多样化。
模型中通常有用one-hot编码的二维稀疏特征,比如说二维特征user_installed_app = netflix(one-hot中的表示netflix的一位)当用户下载过netflix时为1。
memorization可以通过在稀疏特征上的cross-product transformation来实现,比如AND(user_installed_app=netflix, impression_app=pandora)当这其中的两项都取到时才为1。
generalization的实现可以通过一些粗粒度的组合特征,比如AND(user_installed_category=video, impression_category=music)。
但是这些组合特征都是需要人工来设计的。
这种方法的一个限制在于不能泛化到一些训练数据中没有出现过的物品特征对。
基于embedding的模型,比如说FM,DNN能够通过学习物品特征的低维稠密embedding向量来泛化到以前没见过的物品特征对,并且不需要人工做额外的特征组合。然而,当物品矩阵稀疏时很难有效的学习到好的embedding向量。
本文提出了Wide&Deep模型,同时实现memorization和generalization,同时训练一个线性模块和一个深度网络模块。

WIDE & DEEP LEARNING

The Wide Component

wide模块就是一个普通的线性模型y = wT * x + b,其中y是prediction,x=[x1, x2,..., xd]是d维的特征向量,w = [w1,w2,...,wd]是模型参数,b是bias。其中特征集合中包括原始的输入特征和转换特征(transformed feature)。最重要的transformation是cross-product transformation,定义如下

cki是一个boolean变量,当第i个特征是第k个transformation φk的一部分时为1,否则为0。比如对于binary特征,有cross-product transformation AND(gender=female, language=en),只有当其中的两个特征都为1时才为1,否则为0。
式1的理解非常重要,以gender和language这个transformation为例进行说明。gender和language都是one-hot的,如果我们希望组合gender=female, language=en,那么去找到这两个对应的特征(分别是两个one-hot中的一维),这两个特征对应的cki是1,其他都是0(任何数的0次方都是1,也就是说,和其他的特征都没有关系了)。只有当这两个特征对应的xi都是1时,整个transformation φk才为1。
通过这种方式实现了binary特征的交互,增加了模型的非线性。

The Deep Component

先对one-hot做embedding,需要注意的是这里的embedding是和模型一起训练的。即先对embedding vector随机初始化,然后最小化loss function来训练。然后放入MLP中

激活函数f通常用relu。

Joint Training of Wide & Deep Model

将wide模块和deep模块带权求和,然后输入logistics loss function共同训练(joint training)。
文中强调了joint training和ensemble的区别,简单说ensemble是不同模块各自分别训练,训练好了再装起来,joint training是各个模块直接合成一个模型一起训练。ensemble需要子模块size更大,而joint training各个子模块是互补的,相对来说size更小。
用back-pop来训练整个模型,模型的预测为

x是原始特征,φ(x)是cross product transformation得到的特征,b是bias,a(lf)是deep模块最后一层输出。
具体的模型结构如下图。

可以看到连续型特征不需要做embedding,直接往前输入,离散型种类特征(one-hot)做embedding(32维)。cross product transformation是人工设计组合的一部分特征。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,175评论 5 466
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,674评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,151评论 0 328
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,597评论 1 269
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,505评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 47,969评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,455评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,118评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,227评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,213评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,214评论 1 328
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,928评论 3 316
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,512评论 3 302
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,616评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,848评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,228评论 2 344
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,772评论 2 339