深度学习在点击率预估中的实战(part 4)

part4:前面三部分主要介绍了model server的搭建以及recom server中如何构建client 来访问model服务,第四部分主要讲一下google  论文 wide and deep learning for Recomender Systems里提到的算法部分,以及所做的离线实验与model的导出。最后给出在线abtest的一些数据。[本文默认看官了解lr,dnn的一些基本常识如果不了解请自行补充学习再读下文]

(1)wide and deep model training 公式推导

在pctr领域,业界广泛应用的有lr以及树模型(gbdt)或者他们的组合,再加上今天我们的所要介绍的dnn模型,也就构成了learn to rank 的几种point wise打法。虽然各种模型各有优劣,但是一个成熟的算法工程师是不会沉迷模型而不自拔的,因为数据特征决定上限,而模型只不过是体现了逼近这个上限的程度。当你的任务数据样本还不是很有规律的时候也许一个简单的规则或者最简单的浅层模型就可以事半功倍,盲目的套用模型只能是东施效颦。这就如同国家男足的水平只有65分,你把世界冠军里皮请来他可以让你打出60分的水平(可能另一个比世界杯冠军教头里皮差一些的教练也可以让你打出58分,59分的水平),但是绝对打不出75分,成为世界top50.恭喜国家男子足球队战胜乌兹别克,保留出线希望。

在工业界领域,lr模型有天然的优势,就是简单快捷,而且无性能瓶颈,但是同样是劣势十分明显,需要大量的人工特征工程,为了增加非线性化需要增加大量的特征组合(feature cross),对于特征处理的基本功要求极高,这在我曾经做过的几个项目中深有体会。而且特征组合过程中不能保证组合特征的所有取值情况都出现在training data中,对于一些数据规律会学不到位。而且了解dnn的同学会发现,其实lr就是只有输入,输出和一个隐层的dnn模型。显然不能更好的抽象特征之间的组合关联关系,以及描述那些特征组合之上的二阶组合。关于论文中详述的 dnn与lr 分别在rank的generalize 和memorization这两方面的好处,这里我就不翻译给大家了。论文还是自己一手读,读的有感觉。论文在model 构建之后,并木有给出training的公式推导。根据自己的理解我尝试推导一下,如果有差错之处,请看官指出。

由下图一可知,wide&deep模型的输入层分为wide part 和deep part。其中wide part有离散特征,以及一些离散特征的组合。不过这些离散特征要经过embeding成一定的维度比如userid,docid。(关于embeding技术如果感兴趣,请参考google 给出的word2vec的数学推导,非常的详细,可以有助于理解)。deep part的输入层混合了一些离散特征和连续特征,可以放置一到多个隐层,隐层的激活函数是RELU函数,木有用常用的sigmod。最后一层隐层的输出直接和widepart 的输出线性加权一下,经过sigmod函数去线性化就是最后的点击率预估。这个model其实并不是十分复杂,但是它在训练的时候是joint training,有别于传统的boosting,也就是论文所说的ensemble。这里不是分别独立训练多个弱model,而是这俩model被看成了一个model,他们的参数一起迭代。


图1 wide and deep model


公式推导结合下面的图2,图3,图4,图5展开。图2是论文中唯一的提及model 公式的地方,给出了model的输出层的公式,激活函数是sigmod,然后wide part,deep part 线性加权。后面的公式推导同样也将w分成 wdeep以及w wide,w wide就是一个和wide part 特征维度相同的行向量。wdeep 向量都是带有上下标的,上标的l表示第l个隐藏层中的模型参数,L表示最后一层,也就是这里的输出层。下标是两个字母,如jk 则表示从l-1层的k节点指向l层的j节点的这条边。由于这里的输出层只有一个节点。输出层的描述直接用了下标out。下面分析一下如下几个公式。公式1是损失函数这里采用了对数似然损失函数也就是论文中的(logit function),为什么不用平方损失函数,请大家思考,公式中写的是n个样本的总损失然后平均,下面推导梯度的过程中用的Loss function,并木有取sum,而是用了一个样本的损失函数,这里并不影响。公式2是输出层的前向公式,也就是图2中的公式,是model的输出层。公式3,是损失函数对于wide part行向量中的某一个参数求梯度的过程,我写的应该很清晰。定义z为每一层激活函数去线性化之前的输出。公式4,5是Backpropagation中的误差反向传播公式。由公式5可以看出l层j节点误差可以有上一层的每个节点的误差以及j节点指向下一层的链接权重求出。只不过由于最后一层和前几层的激活函数不一样,所以后面的导数不一样。有了5,6就可以对每一层的每一个节点偏移以及链接权重求梯度了。既然model里每一个参数的梯度我们都得到了,就可以利用梯度下降来每一次迭代更新一次模型参数,直到达到迭代上限或者loss function收敛。当然这里只是简单的对核心部分的公式进行了求解。wide 和deep part 的参数迭代过程中少不了正则化。其实这个模型通过公式推导能够发现,相当于将最后一个隐藏分成了两部分,而两部分互不链接,输入也不交叉链接。所以google大神的想象力是可以的。


图2 论文中关于输出层的公式
图3
图4


图5


(2) model 的offline train

model的offline train整体遵循如图6的流程图,评估指标采用ave session auc。用户一次请求会话得到的视频是用顺序的根据用户点击不点击可以得到类似101000100。这样的序列,每一个都可以求一个auc,然后所有取平均。就是衡量的标准。训练完成的model 对测试样本进行重新打分,排序。也许就能将101000100变成111000000.这样就是变好了。也许会变成011000100,这样就是变差了。离线的训练请参考代码https://www.tensorflow.org/tutorials/wide_and_deep,非常详细,只需要将特征换成你的特征,但是需要特别注意请将tf.estimator.DNNLinearCombinedClassifier这个类包装到tf.contrib.learn.SKCompat这个类支持batch训练这样速度大大提高,否则速度太慢。不能满足真正的要求。关于模型导出请参考part3的参考文献。


图 6 offline process

采用了一个月的训练样本,3天的训练样本。其表现分别比线上base(lr与gbdt混合模型)。20170801,auc lift +0.4%,20170802,auc lift +0.5%。20170803 auc lift -0.5%。 由于我们的线上base是经过一版本规则,两版本模型迭代的,所以略有小胜也不是不可接受,决定推到生成环境小流量实验。

(3)线上效果短时分析

由于离线测评model表现还可以,所以决定推导线上实验,切分了一个流量不是很多的版本的15%流量dnn,15%流量lrgbdt混合模型,70%流量规则。来做了两周abtest。效果如下图。红颜色表示15%的dnn,紫颜色表示15%的treemodel,蓝颜色表示100%的流量。所以根据下面的结论,将wide and deep model 推到了一个大版本流量的70%来观察。后续会给出一个大流量版本上的表现。



图8

致谢:特别感谢在这个项目开发过程中禚神在排期上的宽松。以及各位小伙伴的在特定工程问题上的指点。比如压测,比如环境搭建。比如从log中预处理出点击展示数据。谢谢大家。

最近百度外卖被饿了么合并了,但是我在lbs,百度外卖的两年多,从很多项目中学到了算法如何靠谱的落地到工业界。可以说是受益匪浅。谢谢先后与我合作并指导我的代老板,泉高工,邝高工以及禚神。虽然离职也有一年了,但是回忆起那时在物流调度算法,寻宝可视化数据挖掘平台,用户个性化营销那些激情燃烧的岁月,依然感觉收获满满。谨以此段,向岁月神偷致敬。

完成于20170902如需转载请注明出处。

全文第一稿完,王岳于20170902凌晨。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,482评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,377评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,762评论 0 342
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,273评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,289评论 5 373
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,046评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,351评论 3 400
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,988评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,476评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,948评论 2 324
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,064评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,712评论 4 323
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,261评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,264评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,486评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,511评论 2 354
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,802评论 2 345

推荐阅读更多精彩内容