为了账号安全,请及时绑定邮箱和手机立即绑定

深度语义模型在推荐系统中的应用实战(youtube dnn)--part1

前序:本文是对《 deep neural network for youtube recommendation》这篇paper的落地实战。本文重点不是解读paper,重点是和大家分享我在将本文所讲述的model实战到短视频推荐产品过程中所遇到的一些问题。

背景:近些年来,个性化推荐算法越来越影响着人们的生活,落地产品也越来越多,像信息流,电商,lbso2o等等很多产品都是其中的代表。个性化推荐系统大体分为recall,rank,stratey三个步骤。在recall阶段传统的基于用户点击行为cf,矩阵分解等等,利用物品本身的内容理解的content based等越来越不能突破个性化推荐系统效果的上限,满足用户的新颖与惊喜的要求。所以基于深度学习的个性化召回算法也被越来越多的研究,利用隐语义来完成推荐也就是所谓的向量召回。无论是item2vec,还是dssm以及本文所讲述的youtube dnn 都是其中的代表算法。本文将分为三个方面进行介绍。(1)youtube dnn model的构成以及如何完成的百万级别分类model的负采样算法来加速bp。(2)特征选取的介绍以及如何样本选取,特征选取,样本均衡。(3)总体工程架构的梳理以及应用到线上的效果分析。

下面开始第一部分关于youtube dnn model的介绍,众所周知,dnn model以其独特的特征交叉(全连接)以及非线性化能力(激活函数的去线性化)而受到广泛青睐,无论是在分类问题还是回归问题中,我曾经写过一篇文章详细的介绍dnn在回归问题上的应用(原文 深度学习在点击率预估中的实战),本文将dnn应用在了大规模的分类(百万量级)问题上,这种情况下训练速度将变的异常缓慢这是因为在bp过程中,L层上某个节点wj的梯度是由L+1层上所有节点的梯度sum起来的。(如果您在阅读时候对bp的细节还是不了解请移步到我的另一篇文章 深度学习在点击率预估中的实战的part4详细了解)。所以在这种情况下如果百万量级的分类model,在输出层往最后一个隐层传播梯度的时候将计算的极其缓慢,所以必须有负采样的算法来减缓这个梯度反传播的压力让算法可以落地。好了大体的一个总结之后我们开始本part,本part分为两大部分的介绍。1youtube dnnmodel构成的介绍以及如何得到的向量。2落地时所使用的负采样算法TAPAS介绍。

(1)下面开始youtube dnnmodel的构成介绍,请大家看图1,图1是论文中贴出的关于youtube dnnmodel的核心示意图,这里请大家先忽略特征的输入,关于特征部分的详细介绍会在part2 展开。在下图中的隐层12和传统的dnn model 并没有什么区别至于激活函数你想用relu还是sigmod还是tanh这个需要根据你自己的情况,需要根据你用哪些激活函数能带来最好的loss,或者是能将最后一个隐层的激活值控制的非零。我在实战中用的sigmod。最后一层隐藏的激活值是user侧的向量,也就是说我们在将model放到tf serving提供服务的时候,user embedding是通过输入user侧的特征到model实时计算出来的。举例来说如果最后一层隐藏有64个节点,输出层有100w个分类,那么最后一层隐层和输出层之间的全联接矩阵就是100W*64,这个在model train完后,就可以直接导出输出层的w作为item的embedding也就是item侧的隐语义向量。图2是如何将输出层w导出的具体代码,得到了w和b之后您也可以直接用文件句柄是实例化。好了向量就得到了。下面我们第二部分重点介绍一下这个model训练过程中的一些细节。

https://img1.sycdn.imooc.com//5c04036e0001946812400865.jpg

https://img1.sycdn.imooc.com//5c0404050001a8e212400410.jpg

2.负采样方法TAPAS(Two-pass APproximate Adaptive Sampling)上文已经说过在损失函数为平方损失函数的情况下,bp过程中,最后一个隐层的每一个w的梯度都得需要sum输出层的所有节点,显然在百万量级的分类问题中,计算量太大。是不可以的。当然分类问题我们一般用交叉墒损失函数,也有把他叫做softmax loss。反正都是一个意思。公式见下图3,n是n个样本,m是m个分类lable。y是真实label,p(x)是模型预估的label的概率,可以看出如果预测的越准。那么loss越接近0.同样如果loss是交叉熵也会存在前叙述的问题。具体的公式推导看引用2论文的第2部分。

https://img1.sycdn.imooc.com//5c0404420001944d05580162.jpg

传统的负采样方法大家比较熟知的是word2vec的google源码里面基于先验分布的随时抽样的负采样。具体简单介绍一下。我们计算每个词的词频分布。具体公式如下,词wfre 表示词在语料中的次数,分母是所有词的次数和。源码里wfre 有一个幂次,0.75。对热词进行一些惩罚。这样所有词的长度和组成了1。然后同时将长度为1的线段分成M分,M>>语料中的词数。代码默认是10的8次方,那么1,2,3,。。。M份每一份都对应一个数字,这个数字也会落在某个单词的长度内。见图5,盗个图。每个单词可能包含多个m。这样在每次负采样时候,random出一个1到10的8词方的数,就对应一个单词。直到选够我们需要的负采样个数再开始梯度下降。word2vec也是一个nn,只不过层数很浅。有几种建模方式。这里不展开。有机会展开。

https://img1.sycdn.imooc.com//5c0404700001ffee03880206.jpg

https://img1.sycdn.imooc.com//5c04048c0001eb8c07090234.jpg

TAPAS是两步采样。具体第一步采样和上面的一模一样,第二部采样在第一部选取的"负“label的基础上再进行一次adaptive sample, 顾命思意,就是说第二次是根据当前model的参数,在batch 样本集上进行的再选取。具体的公式见图6.假设第二次要从第一次选取的负label中再选出m个,在youtube dnn中需要在batch(公式中的B)上对每一个样本进行前向传播对输出层的每一个label值求和,取得topN个即为第二次选出的负样本(这里也可以设置一个采样温度,f(x)/T,这个T越小,越容易选出与任一样本预测出的rank在前几的label。)。使用这些负样本进行BP,完成w和b的一轮更新。

https://img1.sycdn.imooc.com//5c0404ab0001f6df03950122.jpg

tensorflow在上述负采样的方法落地在了contrib.nn.rank_sampled_softmax_loss这个loss函数上具体实现大家可以看api,里面的num_sampled,num_resampled, resampling_temprature就是上文说的第一次采样数,第二次采样数,以及采样温度。

好了,第一部分关于dnnyoutube的model构造,如何取得item,user侧向量。以及model训练过程中的负采样方法介绍完了。

第二部分将结合我的实战经验给大家介绍 样本特征选择与model 参数的具体配置。

引用1: deep neural network for youtube recommendation

引用2:TAPAS: Two-pass Approximate Adaptive Sampling for Softmax

原创文章与如需转载注明出处。

欢迎关注课程:

BAT大牛亲授--个性化推荐算法实战



点击查看更多内容
6人点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
算法工程师
手记
粉丝
374
获赞与收藏
23

关注作者,订阅最新文章

阅读免费教程

感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消