写点什么

YouTube 深度学习推荐系统的十大工程问题

  • 2019-01-13
  • 本文字数:4626 字

    阅读完需:约 15 分钟

YouTube深度学习推荐系统的十大工程问题

这里是王喆的机器学习笔记的第三篇文章,这篇文章紧接着上篇文章 《重读 YouTube 深度学习推荐系统论文,字字珠玑,惊为神文》,如果没有读过的同学还是强烈建议翻看一下这篇文章,熟悉文中抛出的问题。


因为这篇文章主要介绍了 YouTube 深度学习系统论文中的十个工程问题,为了方便进行问题定位,我们还是简单介绍一下背景知识,简单回顾一下 Deep Neural Networks for YouTube Recommendations中介绍的 YouTube 深度学习推荐系统的框架。



YouTube 推荐系统架构


简单讲,YouTube的同学们构建了两级推荐结构从百万级别的视频候选集中进行视频推荐,第一级candidate generation model负责“初筛”,从百万量级的视频库中筛选出几百个候选视频,第二级ranking model负责“精排”,引入更多的feature对几百个候选视频进行排序。


不管是 candidate generation model 还是 ranking model 在架构上都是 DNN 的基本结构,不同的是输入特征和优化目标不同。但正如我在上一篇文章中讲的,如果你仅读懂了 YouTube 的模型架构,至多获得了 30%的价值,剩下 70%的价值就在于下面的十大工程问题。废话不多说,我们进入问题的解答。


1、文中把推荐问题转换成多分类问题,在预测 next watch 的场景下,每一个备选 video 都会是一个分类,因此总共的分类有数百万之巨,这在使用 softmax 训练时无疑是低效的,这个问题 YouTube 是如何解决的?


这个问题原文的回答是这样的


We rely on a technique to sample negative classes from the background distribution (“candidate sampling”) and then correct for this sampling via importance weighting.


简单说就是进行了负采样(negative sampling)并用 importance weighting 的方法对采样进行 calibration。文中同样介绍了一种替代方法,hierarchical softmax,但并没有取得更好的效果。当然关于采样的具体技术细节以及优劣可能再开一篇文章都讲不完,感兴趣的同学可以参考tensorflow中的介绍以及NLP领域的经典论文


也欢迎有相关经验的同学在评论中给出简明的回答。


2、在 candidate generation model 的 serving 过程中,YouTube 为什么不直接采用训练时的 model 进行预测,而是采用了一种最近邻搜索的方法?


这个问题的答案是一个经典的工程和学术做 trade-off 的结果,在 model serving 过程中对几百万个候选集逐一跑一遍模型的时间开销显然太大了,因此在通过 candidate generation model 得到 user 和 video 的 embedding 之后,通过最近邻搜索的方法的效率高很多。我们甚至不用把任何 model inference 的过程搬上服务器,只需要把 user embedding 和 video embedding 存到 redis 或者内存中就好了。


但这里我估计又要求助场外观众了,在原文中并没有介绍得到 user embedding 和 video embedding 的具体过程,只是在架构图中从 softmax 朝 model serving module 那画了个箭头(如下图红圈内的部分),到底这个 user vector 和 video vector 是怎么生成的?有经验的同学可以在评论中介绍一下。



Candidate Generation Model, video vector 是如何生成的?


3、Youtube 的用户对新视频有偏好,那么在模型构建的过程中如何引入这个 feature?


为了拟合用户对 fresh content 的 bias,模型引入了“Example Age”这个 feature,文中其实并没有精确的定义什么是 example age。按照文章的说法猜测的话,会直接把 sample log 距离当前的时间作为 example age。比如 24 小时前的日志,这个 example age 就是 24。在做模型 serving 的时候,不管使用那个 video,会直接把这个 feature 设成 0。大家可以仔细想一下这个做法的细节和动机,非常有意思。


当然我最初的理解是训练中会把 Days since Upload 作为这个 example age,比如虽然是 24 小时前的 log,但是这个 video 已经上传了 90 小时了,那这个 feature value 就是 90。那么在做 inference 的时候,这个 feature 就不会是 0,而是当前时间每个 video 的上传时间了。


我不能 100%确定文章中描述的是那种做法,大概率是第一种。还请大家踊跃讨论。


文章也验证了,example age 这个 feature 能够很好的把视频的 freshness 的程度对 popularity 的影响引入模型中。



从上图中我们也可以看到,在引入“Example Age”这个 feature 后,模型的预测效力更接近经验分布;而不引入 Example Age 的蓝线,模型在所有时间节点上的预测趋近于平均,这显然是不符合客观实际的。


4、在对训练集的预处理过程中,YouTube 没有采用原始的用户日志,而是对每个用户提取等数量的训练样本,这是为什么?


原文的解答是这样的,


Another key insight that improved live metrics was to generate a xed number of training examples per user, e ectively weighting our users equally in the loss function. This prevented a small cohort of highly active users from dominating the loss.


理由很简单,这是为了减少高度活跃用户对于 loss 的过度影响。


5、YouTube 为什么不采取类似 RNN 的 Sequence model,而是完全摒弃了用户观看历史的时序特征,把用户最近的浏览历史等同看待,这不会损失有效信息吗?


这个原因应该是 YouTube 工程师的“经验之谈”,如果过多考虑时序的影响,用户的推荐结果将过多受最近观看或搜索的一个视频的影响。YouTube 给出一个例子,如果用户刚搜索过“tayer swift”,你就把用户主页的推荐结果大部分变成 tayer swift 有关的视频,这其实是非常差的体验。为了综合考虑之前多次搜索和观看的信息,YouTube 丢掉了时序信息,讲用户近期的历史纪录等同看待。


但 RNN 到底适不适合 next watch 这一场景,其实还有待商榷,@严林 大神在上篇文章的评论中已经提到,youtube 已经上线了以 RNN 为基础的推荐模型, 参考论文如下: https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/46488.pdf


看来时隔两年,YouTube 对于时序信息以及 RNN 模型有了更多的掌握和利用。


6、在处理测试集的时候,YouTube 为什么不采用经典的随机留一法(random holdout),而是一定要把用户最近的一次观看行为作为测试集?


这个问题比较好回答,只留最后一次观看行为做测试集主要是为了避免引入 future information,产生与事实不符的数据穿越。


7、在确定优化目标的时候,YouTube 为什么不采用经典的 CTR,或者播放率(Play Rate),而是采用了每次曝光预期播放时间(expected watch time per impression)作为优化目标?


这个问题从模型角度出发,是因为 watch time 更能反应用户的真实兴趣,从商业模型角度出发,因为 watch time 越长,YouTube 获得的广告收益越多。而且增加用户的 watch time 也更符合一个视频网站的长期利益和用户粘性。


这个问题看似很小,实则非常重要,objective 的设定应该是一个算法模型的根本性问题,而且是算法模型部门跟其他部门接口性的工作,从这个角度说,YouTube 的推荐模型符合其根本的商业模型,非常好的经验。


我之前在领导一个算法小组的时候,是要花大量时间与 Business 部门沟通 Objective 的设定问题的,这是路线方针的问题,方向错了是要让组员们很多努力打水漂的,一定要慎之又慎。


8、在进行 video embedding 的时候,为什么要直接把大量长尾的 video 直接用 0 向量代替?


这又是一次工程和算法的 trade-off,把大量长尾的 video 截断掉,主要还是为了节省 online serving 中宝贵的内存资源。当然从模型角度讲,低频 video 的 embedding 的准确性不佳是另一个“截断掉也不那么可惜”的理由。


当然,之前很多同学在评论中也提到简单用 0 向量代替并不是一个非常好的选择,那么有什么其他方法,大家可以思考一下。


9、针对某些特征,比如 #previous impressions,为什么要进行开方和平方处理后,当作三个特征输入模型?


这是很简单有效的工程经验,引入了特征的非线性。从 YouTube 这篇文章的效果反馈来看,提升了其模型的离线准确度。


10、为什么 ranking model 不采用经典的 logistic regression 当作输出层,而是采用了 weighted logistic regression?


因为在第 7 问中,我们已经知道模型采用了 expected watch time per impression 作为优化目标,所以如果简单使用 LR 就无法引入正样本的 watch time 信息。因此采用 weighted LR,将 watch time 作为正样本的 weight,在线上 serving 中使用 e(Wx+b)做预测可以直接得到 expected watch time 的近似,完美。


十个问题全部答完,希望对大家有帮助。其实在上一篇文章抛出这十个问题的时候,已经有诸位大神做出了很好的回答,感谢 @做最闲的咸鱼 @严林 @吴海波。最后增加一个思考环节,大家可以讨论一下下面的问题:


1. 本论文中,用于 candidate generation 网络 serving 部分的 user embedding vector 和 video embedding vector 是怎么生成的?


2. Example age 这个 feature 的定义到底是什么?


3. 除了用 0 向量 embedding 替代长尾内容,有没有其他好的方法?


这里是 王喆的机器学习笔记 的第三篇文章,水平有限,不对之处欢迎吐槽、拍砖。下一篇文章我们一起讨论一下 Airbnb 的搜索推荐系统和 embedding 方法,如果大家有兴趣欢迎点赞鼓励。


2019-01-13 14:008246

评论

发布
暂无评论
发现更多内容

TypeScript 之基础入门

冴羽

JavaScript typescript html5 翻译 大前端

元宇宙所带来价值共识的历史回归

CECBC

大厂算法面试之leetcode精讲14.排序算法

全栈潇晨

LeetCode 算法面试

区块链技术及其军事应用

CECBC

30 K8S之Deployment控制器

穿过生命散发芬芳

k8s 11月日更

文章目录 [Index]

dclar

大数据 技术 管理 操作系统 中间件

论渗透信息收集的重要性

网络安全学海

网络安全 信息安全 渗透测试 WEB安全 漏洞挖掘

总决赛金银铜奖揭晓,2021信创“大比武”鲲鹏赛道圆满落幕!

科技热闻

恒源云(GPUSHARE)_卷积神经网络的工作原理

恒源云

深度学习

.NET 中缓存的实现

喵叔

11月日更

技术管理哲学随笔:如果空降,你会怎么做

dclar

CTO 技术管理 管理经

移动支付与支付安全SDL

明亮安全观

网络安全 信息安全 数据安全 支付安全 交易安全

不要累死自己,也不要卷死别人。

石云升

内卷 职场经验 11月日更

Zillow“炒房”失败,算法神话破灭了吗?

脑极体

在线文本字符串批量替换工具

入门小站

工具

【LeetCode】 连续字符Java题解

Albert

算法 LeetCode 12月日更

APISIX-Datadog 插件发布,助力用户提高系统的可观测性

API7.ai 技术团队

云原生 可观测性 API网关 APISIX Datadog

【DevKit黑科技揭秘】│深入浅出DevKit性能调优,让系统“瓶颈”无处遁形

Geek_32c4d0

Taro 3.4 beta 发布: 支持 Preact 为应用开辟更多体积空间

凹凸实验室

taro 大前端 React HarmonyOS

【架构实战营】模块五

衣谷

架构实战营

使用nodejs和Java访问远程服务器的服务

汪子熙

Java nodejs 28天写作 abap 11月日更

如何使用 Kubernetes 监测定位慢调用

阿里巴巴云原生

阿里云 Kubernetes 云原生 监控工具

“元宇宙”来了 城市会消亡吗?

CECBC

一网成擒全端涵盖,在不同架构(Intel x86/Apple m1 silicon)不同开发平台(Win10/Win11/Mac/Ubuntu)上安装配置Python3.10开发环境

刘悦的技术博客

Python ubuntu Mac Python3 win11

雪花算法对System.currentTimeMillis()优化真的有用么?

秦怀杂货店

分布式 算法 雪花算法

[Pulsar] 按照KeyHashRange读取消息

Zike Yang

Apache Pulsar 11月日更

大湾区|Serverless 线下活动两连发

阿里巴巴云原生

阿里云 Serverless 云原生 线下活动 大湾区

大厂算法面试之leetcode精讲13.单调栈

全栈潇晨

LeetCode 算法面试

hw5-微博评论高性能高可用

WWH

架构实战营

Nocalhost 成功加入 CNCF 沙箱

科技热闻

Deco 智能代码技术揭秘:设计稿智能生成代码

凹凸实验室

机器学习 AI 大前端 低代码

YouTube深度学习推荐系统的十大工程问题
_AI&大模型_王喆_InfoQ精选文章