一、前言
在计算广告场景中,需要平衡和优化三个参与方——用户、广告主、平台的关键指标,而预估点击率 CTR(Click-through Rate)和转化率 CVR(Conversion Rate)是其中非常重要的一环,准确地预估 CTR 和 CVR 对于提高流量变现效率,提升广告主 ROI(Return on Investment),保证用户体验等都有重要的指导作用。
传统的 CTR/CVR 预估,典型的机器学习方法包括人工特征工程 + LR(Logistic Regression)1、GBDT(Gradient Boosting Decision Tree)2 + LR、FM(Factorization Machine)3和 FFM(Field-aware Factorization Machine)4等模型。相比于传统机器学习方法,深度学习模型近几年在多领域多任务(图像识别、物体检测、翻译系统等)的突出表现,印证了神经网络的强大表达能力,以及端到端模型有效的特征构造能力。同时各种开源深度学习框架层出不穷,美团集团数据平台中心也迅速地搭建了 GPU 计算平台,提供 GPU 集群,支持 TensorFlow、MXNet、Caffe 等框架,提供数据预处理、模型训练、离线预测、模型部署等功能,为集团各部门的策略算法迭代提供了强有力的支持。
美团海量的用户与商家数据,广告复杂的场景下众多的影响因素,为深度学习方法的应用落地提供了丰富的场景。本文将结合广告特殊的业务场景,介绍美团搜索广告场景下深度学习的应用和探索。主要包括以下两大部分:
CTR/CVR 预估由机器学习向深度学习迁移的模型探索
CTR/CVR 预估基于深度学习模型的线下训练/线上预估的工程优化
二、从机器学习到深度学习的模型探索
2.1 场景与特征
美团搜索广告业务囊括了关键词搜索、频道筛选等业务,覆盖了美食、休娱、酒店、丽人、结婚、亲子等 200 多种应用场景,用户需求具有多样性。同时 O2O 模式下存在地理位置、时间等独特的限制。
结合上述场景,我们抽取了以下几大类特征:
用户特征
人口属性:用户年龄,性别,职业等。
行为特征:对商户/商圈/品类的偏好(实时、历史),外卖偏好,活跃度等。
建模特征:基于用户的行为序列建模产生的特征等。
商户特征
属性特征:品类,城市,商圈,品牌,价格,促销,星级,评论等。
统计特征:不同维度/时间粒度的统计特征等。
图像特征:类别,建模特征等。
业务特征:酒店房型等。
Query 特征
分词,意图,与商户相似度,业务特征等。
上下文特征
时间,距离,地理位置,请求品类,竞争情况等。
广告曝光位次。
结合美团多品类的业务特点及 O2O 模式独特的需求,着重介绍几个业务场景以及如何刻画:
用户的消费场景
“附近”请求:美团和大众点评 App 中,大部分用户发起请求为“附近”请求,即寻找附近的美食、酒店、休闲娱乐场所等。因此给用户返回就近的商户可以起到事半功倍的效果。“请求到商户的距离”特征可以很好地刻画这一需求。
“指定区域(商圈)”请求:寻找指定区域的商户,这个区域的属性可作为该流量的信息表征。
“位置”请求:用户搜索词为某个位置,比如“五道口”,和指定区域类似,识别位置坐标,计算商户到该坐标的距离。
“家/公司”: 用户部分的消费场所为“家” 或 “公司”,比如寻找“家”附近的美食,在“公司”附近点餐等,根据用户画像得到的用户“家”和“公司”的位置来识别这种场景。
多品类
针对美食、酒店、休娱、丽人、结婚、亲子等众多品类的消费习惯以及服务方式,将数据拆分成三大部分,包括美食、酒店、综合(休娱、丽人、结婚、亲子等)。其中美食表达用户的餐饮需求,酒店表达用户的旅游及住宿需求,综合表达用户的其他生活需求。
用户的行为轨迹
实验中发现用户的实时行为对表达用户需求起到很重要的作用。比如用户想找个餐馆聚餐,先筛选了美食,发现附近有火锅、韩餐、日料等店,大家对火锅比较感兴趣,又去搜索特定火锅等等。用户点击过的商户、品类、位置,以及行为序列等都对用户下一刻的决策起到很大作用。
2.2 模型
搜索广告 CTR/CVR 预估经历了从传统机器学习模型到深度学习模型的过渡。下面先简单介绍下传统机器学习模型(GBDT、LR、FM & FFM)及应用,然后再详细介绍在深度学习模型的迭代。
GBDT
GBDT 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法。它由多棵决策树组成,所有树的结论累加起来作为最终答案。它能自动发现多种有区分性的特征以及特征组合,并省去了复杂的特征预处理逻辑。Facebook 实现 GBDT + LR5的方案,并取得了一定的成果。
LR
LR 可以视作单层单节点的“DNN”, 是一种宽而不深的结构,所有的特征直接作用在最后的输出结果上。模型优点是简单、可控性好,但是效果的好坏直接取决于特征工程的程度,需要非常精细的连续型、离散型、时间型等特征处理及特征组合。通常通过正则化等方式控制过拟合。
FM & FFM
FM 可以看做带特征交叉的 LR,如下图所示:
从神经网络的角度考虑,可以看做下图的简单网络搭建方式:
模型覆盖了 LR 的宽模型结构,同时也引入了交叉特征,增加模型的非线性,提升模型容量,能捕捉更多的信息,对于广告 CTR 预估等复杂场景有更好的捕捉。
在使用 DNN 模型之前,搜索广告 CTR 预估使用了 FFM 模型,FFM 模型中引入 field 概念,把个特征归属到个 field 里,得到个隐向量的二次项,拟合公式如下:
$y(\mathbf{x}) = w_0 + \sum_{i=1}^n w_i x_i + \sum_{i=1}^n \sum_{j=i+1}^n \langle \mathbf{v}{i, f_j}, \mathbf{v}{j, f_i} \rangle x_i x_j$
上式中, 表示第 个特征所属的 field。设定隐向量长度为,那么相比于 FM 的个二次项参数,FFM 有个二次项参数,学习和表达能力也更强。
例如,在搜索广告场景中,假设将特征划分到 8 个 Field,分别是 用户、广告、Query、上下文、用户-广告、上下文-广告、用户-上下文及其他,相对于 FM 能更好地捕捉每个 Field 的信息以及交叉信息,每个特征构建的隐向量长度 8*, 整个模型参数空间为 8 + + 1。
Yu-Chin Juan 实现了一个 C++版的FFM模型工具包,但是该工具包只能在单机训练,难以支持大规模的训练数据及特征集合;并且它省略了常数项和一次项,只包含了特征交叉项,对于某些特征的优化需求难以满足,因此我们开发了 基于 PS-Lite 的分布式 FFM 训练工具(支持亿级别样本,千万级别特征,分钟级完成训练,目前已经在公司内部普遍使用),主要添加了以下新的特性:
支持 FFM 模型的分布式训练。
支持一次项和常数项参数学习,支持部分特征只学习一次项参数(不需要和其他特征做交叉运算),例如广告位次特征等。拟合公式如下:
$y(\mathbf{x}) = w_0 + \sum_{i=1}^n w_i x_i + \frac{1}{2} \sum_{i \in group} \sum_{j \in group\ and\ j \neq i} \langle \mathbf{v}{i, f_j}, \mathbf{v}{j, f_i} \rangle x_i x_j$
支持多种优化算法。
从 GBDT 模型切到 FFM 模型,积累的效果如下所示,主要的提升来源于对大规模离散特征的刻画及使用更充分的训练数据:
DNN
从上面的介绍大家可以看到,美团场景具有多样性和很高的复杂度,而实验表明从线性的 LR 到具备非线性交叉的 FM,到具备 Field 信息交叉的 FFM,模型复杂度(模型容量)的提升,带来的都是结果的提升。而 LR 和 FM/FFM 可以视作简单的浅层神经网络模型,基于下面一些考虑,我们在搜索广告的场景下把 CTR 模型切换到深度学习神经网络模型:
通过改进模型结构,加入深度结构,利用端到端的结构挖掘高阶非线性特征,以及浅层模型无法捕捉的潜在模式。
对于某些 ID 类特别稀疏的特征,可以在模型中学习到保持分布关系的稠密表达(embedding)。
充分利用图片和文本等在简单模型中不好利用的信息。
我们主要尝试了以下网络结构和超参调优的实验。
Wide & Deep
首先尝试的是 Google 提出的经典模型 Wide & Deep Model6,模型包含 Wide 和 Deep 两个部分,其中 Wide 部分可以很好地学习样本中的高频部分,在 LR 中使用到的特征可以直接在这个部分使用,但对于没有见过的 ID 类特征,模型学习能力较差,同时合理的人工特征工程对于这个部分的表达有帮助。Deep 部分可以补充学习样本中的长尾部分,同时提高模型的泛化能力。Wide 和 Deep 部分在这个端到端的模型里会联合训练。
在完成 场景与特征 部分介绍的特征工程后,我们基于 Wide & Deep 模型进行结构调整,搭建了以下网络:
在搜索广告的场景中,上图的 Part_1 包含离散型特征及部分连续型特征离散化后的结果 (例如 用户 ID、广告 ID、商圈 ID、品类 ID、GEO、各种统计类特征离散化结果 等等)。离散化方式主要采用等频划分或 MDLP7。每个域构建自己的 embedding 向量 (缺失特征和按照一定阈值过滤后的低频特征在这里统一视作 Rare 特征),得到特征的 Representation,然后通过 Pooling 层做采样,并拼接在一起进行信息融合。
右侧的 Part_2 部分主要包含我们场景下的统计类特征及部分其他途径建模表示后输入的特征 (例如 图片特征、文本特征 等),和 Part_1 的最后一层拼接在一起做信息融合。
Part_3 为多个全连接层,每个 Layer 后面连接激活函数,例如 ReLu, Tanh 等。
右上的 Part_4 部分主要包含广告曝光位次 (Position Bias) 及部分离散特征,主要为了提高模型的记忆性,具有更强的刻画能力。Wide 和 Deep 部分结合,得到最终的模型:
深度学习模型在图像语音等数据上有显著作用的原因之一是,我们在这类数据上不太方便产出能很好刻画场景的特征,人工特征+传统机器学习模型并不能学习出来全面合理的数据分布表示,而深度学习 end-to-end 的方式,直接结合 Label 去学习如何从原始数据抽取合适的表达(representation)。但是在美团等电商的业务场景下,输入的数据形态非常丰富,有很多业务数据有明确的物理含义,因此一部分人工特征工程也是必要的,提前对信息做一个合理的抽取表示,再通过神经网络学习进行更好的信息融合和表达。
在美团搜索广告的场景下,用户的实时行为有非常强的指代性,但是以原始形态直接送入神经网络,会损失掉很多信息,因此我们对它进行了不同方式描述和表示,再送入神经网络之中进行信息融合和学习。另一类很有作用的信息是图像信息,这部分信息的一种处理方式是,可以通过 end-to-end 的方式,用卷积神经网络和 DNN 进行拼接做信息融合,但是可能会有网络的复杂度过高,以及训练的收敛速度等问题,也可以选择用 CNN 预先抽取特征,再进行信息融合。
下面以这两类数据特征为例,介绍在 Wide & Deep 模型中的使用方式。
用户实时行为
行为实体 用户的实时行为包括点击商户(C_P)、下单商户(O_P)、搜索(Q)、筛选品类(S)等。商户的上层属性包括品类(Type: C_Type, O_Type)、位置(Loc: C_Loc, O_Loc)等。
Item Embedding 对用户的行为实体构建 embedding 向量,然后进行 Sum/Average/Weighted Pooling,和其他特征拼接在一起。实验发现,上层属性实体(C_Type, O_Type, C_Loc, O_Loc)的表现很正向,离线效果有了很明显的提升。但是 C_P, O_P, Q, S 这些实体因为过于稀疏,导致模型过拟合严重,离线效果变差。因此,我们做了两方面的改进:
使用更充分的数据,单独对用户行为序列建模。例如 LSTM 模型,基于用户当前的行为序列,来预测用户下一时刻的行为,从中得到当前时刻的“Memory 信息”,作为对用户的 embedding 表示;或 Word2Vec 模型,生成行为实体的 embedding 表示,Doc2Vec 模型,得到用户的 embedding 表示。实验发现,将用户的 embedding 表示加入到模型 Part_2 部分,特征覆盖率增加,离线效果有了明显提升,而且由于模型参数空间增加很小,模型训练的时间基本不变。
使用以上方法产生的行为实体 embedding 作为模型参数初始值,并在模型训练过程中进行 fine tuning。同时为了解决过拟合问题,对不同域的特征设置不同的阈值过滤。
计数特征 即对不同行为实体发生的频次,它是对行为实体更上一层的抽象。
Pattern 特征 用户最近期的几个行为实体序列(例如 A-B-C)作为 Pattern 特征,它表示了行为实体之间的顺序关系,也更细粒度地描述了用户的行为轨迹。
图片
描述 商户的头图在 App 商品展示中占据着很重要的位置,而图片也非常吸引用户的注意力。
图片分类特征 使用 VGG16、Inception V4 等训练图片分类模型,提取图片特征,然后加入到 CTR 模型中。
E2E model 将 Wide & Deep 模型和图片分类模型结合起来,训练端到端的网络。
从 FFM 模型切到 Wide & Deep 模型,积累到目前的效果如下所示,主要的提升来源于模型的非线性表达及对更多特征的更充分刻画。
DeepFM
华为诺亚方舟团队结合 FM 相比 LR 的特征交叉的功能,将 Wide & Deep 部分的 LR 部分替换成 FM 来避免人工特征工程,于是有了 DeepFM8,网络结构如下图所示。
比起 Wide & Deep 的 LR 部分,DeepFM 采用 FM 作为 Wide 部分的输出,在训练过程中共享了对不同 Field 特征的 embedding 信息。
我们在部分业务上尝试了 DeepFM 模型,并进行了超参的重新调优,取得了一定的效果。其他业务也在尝试中。具体效果如下:
Multi-Task
广告预估场景中存在多个训练任务,比如 CTR、CVR、交易额等。既考虑到多个任务之间的联系,又考虑到任务之间的差别,我们利用 Multi-Task Learning 的思想,同时预估点击率、下单率,模型结构如下图所示:
由于 CTR、CVR 两个任务非常类似,所以采用“Hard Parameter Sharing”的结构,完全共享网络层的参数,只在输出层区分不同的任务。
由于下单行为受展现位次的影响非常小,所以下单率的输出层不考虑位次偏差的因素。
输出层在不同任务上单独增加所需特征。
离线训练和线上预估流程减半,性能提升;效果上相对于单模型,效果基本持平:
近期,阿里发表论文“Entire Space Multi-Task Model”9,提出目前 CVR 预估主要存在 Sample Selection Bias(SSB)和 Data Sparsity(DS)两个问题,并提出在全局空间建模(以 pCTCVR 和 pCTR 来优化 CVR)和特征 Transform 的方法来解决。具体的 Loss Function 是:
网络结构是:
超参调优
除了以上对网络结构的尝试,我们也进行了多组超参的调优。神经网络最常用的超参设置有:隐层层数及节点数、学习率、正则化、Dropout Ratio、优化器、激活函数、Batch Normalization、Batch Size 等。不同的参数对神经网络的影响不同,神经网络常见的一些问题也可以通过超参的设置来解决:
过拟合
网络宽度深度适当调小,正则化参数适当调大,Dropout Ratio 适当调大等。
欠拟合
网络宽度深度适当调大,正则化参数调小,学习率减小等。
梯度消失/爆炸问题
合适的激活函数,添加 Batch Normalization,网络宽度深度变小等。
局部最优解
调大 Learning Rate,合适的优化器,减小 Batch Size 等。
Covariate Shift
增加 Batch Normalization,网络宽度深度变小等。
影响神经网络的超参数非常多,神经网络调参也是一件非常重要的事情。工业界比较实用的调参方法包括:
网格搜索/Grid Search:这是在机器学习模型调参时最常用到的方法,对每个超参数都敲定几个要尝试的候选值,形成一个网格,把所有超参数网格中的组合遍历一下尝试效果。简单暴力,如果能全部遍历的话,结果比较可靠。但是时间开销比较大,神经网络的场景下一般尝试不了太多的参数组合。
随机搜索/Random Search:Bengio 在“Random Search for Hyper-Parameter Optimization”10中指出,Random Search 比 Grid Search 更有效。实际操作的时候,可以先用 Grid Search 的方法,得到所有候选参数,然后每次从中随机选择进行训练。这种方式的优点是因为采样,时间开销变小,但另一方面,也有可能会错过较优的超参数组合。
分阶段调参:先进行初步范围搜索,然后根据好结果出现的地方,再缩小范围进行更精细的搜索。或者根据经验值固定住其他的超参数,有针对地实验其中一个超参数,逐次迭代直至完成所有超参数的选择。这个方式的优点是可以在优先尝试次数中,拿到效果较好的结果。
我们在实际调参过程中,使用的是第 3 种方式,在根据经验参数初始化超参数之后,按照隐层大小->学习率->Batch Size->Drop out/L1/L2 的顺序进行参数调优。
在搜索广告数据集上,不同超参的实验结果如下:
2.3 小结
搜索广告排序模型经历了从 GBDT –> FFM –> DNN 的迭代,同时构建了更加完善的特征体系,线下 AUC 累积提升 13%+,线上 CTR 累积提升 15%+。
三、基于深度学习模型的工程优化
3.1 线下训练
TensorFlow 程序如果单机运行中出现性能问题,一般会有以下几种问题:
复杂的预处理逻辑耦合在训练过程中。
选择正确的 IO 方式。
剥离预处理流程
在模型的试验阶段,为了快速试验,数据预处理逻辑与模型训练部分都耦合在一起,而数据预处理包含大量 IO 类型操作,所以很适合用 HadoopMR 或者 Spark 处理。具体流程如下:
在预处理阶段将查表、join 字典等操作都做完,并且将查询结果与原始数据 merge 在一起。
将 libfm 格式的数据转为易于 TensorFlow 操作的 SparseTensor 方式:
将原始数据转换为 TensorFlow Record。
选择正确的 IO 方式
TensorFlow 读取数据的方式主要有 2 种,一般选择错误会造成性能问题,两种方式为:
Feed_dict 通过 feed_dict 将数据喂给 session.run 函数,这种方式的好处是思路很清晰,易于理解。缺点是性能差,性能差的原因是 feed 给 session 的数据需要在 session.run 之前准备好,如果之前这个数据没有进入内存,那么就需要等待数据进入内存,而在实际场景中,这不仅仅是等待数据从磁盘或者网络进入内存的事情,还可能包括很多前期预处理的工作也在这里做,所以相当于一个串行过程。而数据进入内存后,还要串行的调用 PyArrayToTF_Tensor,将其 copy 成 tensorflow 的 tensorValue。此时,GPU 显存处于等待状态,同时,由于 tf 的 Graph 中的 input 为空,所以 CPU 也处于等待状态,无法运算。
RecordReader 这种方式是 tf 在 Graph 中将读取数据这个操作看做图中一个 operation 节点,减少了一个 copy 的过程。同时,在 tf 中还有 batch 与 threads 的概念,可以异步的读取数据,保证在 GPU 或者 CPU 进行计算的时候,读取数据这个操作也可以多线程异步执行。静态图中各个节点间的阻塞:在一个复杂的 DAG 计算图中,如果有一个点计算比较慢时,会造成阻塞,下游节点不得不等待。此时,首先要考虑的问题是图中节点参数所存储的位置是否正确。比如如果某个计算节点是在 GPU 上运算,那么如果这个节点所有依赖的 variable 对象声明在 CPU 上,那么就要做一次 memcpy,将其从内存中 copy 到 GPU 上。因为 GPU 计算的很快,所以大部分时间花在拷贝上了。总之,如果网络模型比较简单,那么这种操作就会非常致命;如果网络结构复杂,比如网络层次非常深,那么这个问题倒不是太大的问题了。
在这个 Case 中,因为需要提升吞吐,而不仅仅是在试验阶段。所以需要用 RecordReader 方式处理数据。
优化过程
将整体程序中的预处理部分从代码中去除,直接用 Map-Reduce 批处理去做(因为批处理可以将数据分散去做,所以性能非常好,2 亿的数据分散到 4900 多个 map 中,大概处理了 15 分钟左右)。
MR 输出为 TensorFlow Record 格式,避免使用 Feed_dict。
数据预读,也就是用多进程的方式,将 HDFS 上预处理好的数据拉取到本地磁盘(使用 joblib 库+shell 将 HDFS 数据用多进程的方式拉取到本地,基本可以打满节点带宽 2.4GB/s,所以,拉取数据也可以在 10 分钟内完成)。
程序通过 TensorFlow 提供的 TFrecordReader 的方式读取本地磁盘上的数据,这部分的性能提升是最为明显的。原有的程序处理数据的性能大概是 1000 条/秒,而通过 TFrecordReader 读取数据并且处理,性能大概是 18000 条/秒,性能大概提升了 18 倍。
由于每次 run 的时候计算都要等待 TFrecordReader 读出数据,而没用利用 batch 的方式。如果用多线程 batch 可以在计算期间异步读取数据。在 TensorFlow 所有例子中都是使用 TFRecordReader 的 read 接口去读取数据,再用 batch 将数据多线程抓过来。但是,其实这样做加速很慢。需要使用 TFRecordReader 的 read_up_to 的方法配合 batch 的 equeue_many=True 的参数,才可以做到最大的加速比。使用 tf.train.batch 的 API 后,性能提升了 38 倍。
此时,性能已经基本达到我们的预期了。例如整体数据量是 2 亿,按照以前的性能计算 1000 条/秒,大概需要运行 55 个小时。而现在大概需要运行 87 分钟,再加上预处理(15 分钟)与预拉取数据(10 分钟)的时间,在不增加任何计算资源的情况下大概需要 2 个小时以内。而如果是并行处理,则可以在分钟级完成训练。
3.2 线上预估
线上流量是模型效果的试金石。离线训练好的模型只有参与到线上真实流量预估,才能发挥其价值。在演化的过程中,我们开发了一套稳定可靠的线上预估体系,提高了模型迭代的效率。
模型同步
我们开发了一个高可用的同步组件:用户只需要提供线下训练好的模型的 HDFS 路径,该组件会自动同步到线上服务机器上。该组件基于 HTTPFS 实现,它是美团离线计算组提供的 HDFS 的 HTTP 方式访问接口。同步过程如下:
同步前,检查模型 md5 文件,只有该文件更新了,才需要同步。
同步时,随机链接 HTTPFS 机器并限制下载速度。
同步后,校验模型文件 md5 值并备份旧模型。
同步过程中,如果发生错误或者超时,都会触发报警并重试。依赖这一组件,我们实现了在 2min 内可靠的将模型文件同步到线上。
模型计算
当前我们线上有两套并行的预估计算服务。
基于 TF Serving 的模型服务
TF Serving 是 TensorFlow 官方提供的一套用于在线实时预估的框架。它的突出优点是:和 TensorFlow 无缝链接,具有很好的扩展性。使用 TF serving 可以快速支持 RNN、LSTM、GAN 等多种网络结构,而不需要额外开发代码。这非常有利于我们模型快速实验和迭代。
使用这种方式,线上服务需要将特征发送给 TF Serving,这不可避免引入了网络 IO,给带宽和预估时延带来压力。我们尝试了以下优化,效果显著。
并发请求。一个请求会召回很多符合条件的广告。在客户端多个广告并发请求 TF Serving,可以有效降低整体预估时延。
特征 ID 化。通过将字符串类型的特征名哈希到 64 位整型空间,可以有效减少传输的数据量,降低使用的带宽。
TF Serving 服务端的性能差强人意。在典型的五层网络(512*256*256*256*128)下,单个广告的预估时延约 4800μs,具体见下图:
定制的模型计算实现
由于广告线上服务需要极高的性能,对于主流深度学习模型,我们也定制开发了具体计算实现。这种方式可以针对性的优化,并避免 TF Serving 不必要的特征转换和线程同步,从而提高服务性能。
例如全连接 DNN 模型中使用 Relu 作为激活函数时,我们可以使用滚动数组、剪枝、寄存器和 CPU Cache 等优化技巧,具体如下:
优化后的单个广告预估时延约 650μs,见下图:
综上,当前线上预估采取“两条腿走路”的策略。利用 TF Serving 快速实验新的模型结构,以保证迭代效率;一旦模型成熟切换主流量,我们会开发定制实现,以保证线上性能。
模型效果
借助于我们的分层实验平台,我们可以方便的分配流量,完成模型的小流量实验上线。该分层实验平台同时提供了分钟粒度的小流量实时效果数据,便于模型评估和效果监控。
四、总结与展望
经过一段时间的摸索与实践,搜索广告业务在深度学习模型排序上有了一定的成果与积累。接下来,我们将继续在特征、模型、工程角度迭代优化。特征上,更深度挖掘用户意图,刻画上下文场景,并结合 DNN 模型强大的表达能力充分发挥特征的作用。模型上,探索新的网络结构,并结合 CNN、RNN、Attention 机制等发挥深度学习模型的优势。持续跟进业界动态,并结合实际场景,应用到业务中。工程上,跟进 TensorFlow 的新特性,并对目前实际应用中遇到的问题针对性优化,以达到性能与效果的提升。我们在持续探索中。
作者简介
薛欢,2016 年 3 月加入美团,主要从事搜索广告排序模型相关的工作。
姚强,2016 年 4 月加入美团,主要从事搜索广告召回、机制与排序等相关算法研究应用工作。
玉林,2015 年 5 月加入美团,主要从事搜索广告排序相关的工程优化工作。
王新,2017 年 4 月加入美团,主要从事 GPU 集群管理与深度学习工程优化的工作。
招聘
美团广告平台全面负责美团到店餐饮、到店综合(结婚、丽人、休闲娱乐、学习培训、亲子、家装)、酒店旅游的商业变现。搜索广告基于数亿用户、数百万商家和数千万订单的真实数据做挖掘,在变现的同时确保用户体验和商家利益。欢迎有意向的同学加入搜索广告算法组。
简历请投递至:leijun#meituan.com
参考文献
1.Chapelle, O., Manavoglu, E., & Rosales, R. (2015). Simple and scalable response prediction for display advertising. ACM Transactions on Intelligent Systems and Technology (TIST), 5(4), 61.[return]
2.Friedman, J. H. (2001). Greedy function approximation: a gradient boosting machine. Annals of statistics, 1189-1232.[return]
3.Rendle, S. (2010, December). Factorization machines. In Data Mining (ICDM), 2010 IEEE 10th International Conference on (pp. 995-1000). IEEE.[return]
4.Juan, Y., Zhuang, Y., Chin, W. S., & Lin, C. J. (2016, September). Field-aware factorization machines for CTR prediction. In Proceedings of the 10th ACM Conference on Recommender Systems (pp. 43-50). ACM.[return]
5.He, X., Pan, J., Jin, O., Xu, T., Liu, B., Xu, T., … & Candela, J. Q. (2014, August). Practical lessons from predicting clicks on ads at facebook. In Proceedings of the Eighth International Workshop on Data Mining for Online Advertising (pp. 1-9). ACM.[return]
6.Cheng, H. T., Koc, L., Harmsen, J., Shaked, T., Chandra, T., Aradhye, H., … & Anil, R. (2016, September). Wide & deep learning for recommender systems. In Proceedings of the 1st Workshop on Deep Learning for Recommender Systems (pp. 7-10). ACM.[return]
7.Dougherty, J., Kohavi, R., & Sahami, M. (1995). Supervised and unsupervised discretization of continuous features. In Machine Learning Proceedings 1995 (pp. 194-202).[return]
8.Guo, H., Tang, R., Ye, Y., Li, Z., & He, X. (2017). Deepfm: A factorization-machine based neural network for CTR prediction. arXiv preprint arXiv:1703.04247.[return]
9.Ma, X., Zhao, L., Huang, G., Wang, Z., Hu, Z., Zhu, X., & Gai, K. (2018). Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate. arXiv preprint arXiv:1804.07931.[return]
10.Bergstra, J., & Bengio, Y. (2012). Random search for hyper-parameter optimization. Journal of Machine Learning Research, 13(Feb), 281-305.[return]
评论