写点什么

详解微软大规模稀疏模型 MEB:参数高达 1350 亿,可显著提升搜索相关性

  • 2021-11-19
  • 本文字数:5687 字

    阅读完需:约 19 分钟

详解微软大规模稀疏模型MEB:参数高达1350亿,可显著提升搜索相关性

最近,像 GPT-3 这样基于 Transformer 的深度学习模型在机器学习领域受到了很多关注。这些模型可以很好地理解语义关系,帮助微软必应搜索引擎大幅提升了体验,并在 SuperGLUE 学术基准测试上超越了人类水平。但是,这些模型可能无法捕获查询和文档术语之间更细微的、超出单纯语义的关系。



在这篇博文中我们将介绍“Make Every feature Binary”(让每个特征都成为一个二进制特征,MEB),这是一种大规模稀疏模型,是我们生产 Transformer 模型的一种补充,可以提升微软客户使用大规模AI时的搜索相关性。为了让搜索更加准确和动态,MEB 更好地利用了大数据的力量,并允许输入特征空间拥有超过 2000 亿个二进制特征,这些特征反映了搜索查询和文档之间的微妙关系。

为什么“Make Every feature Binary”可以改进搜索结果?

之所以 MEB 可以有效改善基于 Transformer 的深度学习模型的搜索相关性,一个原因是它可以将单个事实映射到特征,从而让 MEB 能够更细致地理解一个个事实。例如,许多深度神经网络(DNN)语言模型在填写下面这句话的空白时可能会过度泛化:“(blank) can fly”。由于大多数 DNN 训练案例的结果是“birds can fly”,因此 DNN 语言模型可能只会用“birds”这个词来填补空白。


MEB 会将每个事实分配给一个特征,从而避免这种情况,因此它可以通过分配权重来区分不同动物的飞行能力,比如企鹅和海雀。它可以针对区分鸟或任何实体、物体的每一个特征执行这种操作。MEB 与 Transformer 模型搭配使用,可以将分类级别提升到全新的水平。它对上题给出的答案会是“鸟类可以飞,但鸵鸟、企鹅和其他这些鸟类除外(birds can fly, except ostriches, penguins, and these other birds)。”


随着规模的增加,还有一个元素可以用来提升数据的使用效率。必应中的网页结果排名是一个机器学习问题,它通过学习大量用户数据来改进结果。传统上一种利用点击数据的方法是为每个曝光的查询/文档对提取数千个手工数字特征,并训练一个梯度提升决策树(GBDT)模型。


然而,由于特征表示和模型容量有限,即使是最先进的 GBDT 训练器LightGBM在数亿行数据后也会收敛。此外,这些手工制作的数字特征本质上往往非常粗糙。例如,它们可以捕获查询中给定位置的术语在文档中出现的次数,但关于给定术语具体含义的信息在这一表示中丢失了。此外,这种方法中的特征并不能一直准确地说明搜索查询中的词序等内容。


为了释放海量数据的力量,并找到能够更好地反映查询和文档之间关系的特征表示,MEB 接受了来自必应搜索积累三年,超过 5000 亿个查询/文档对的训练。输入特征空间有超过 2000 亿个二进制特征。对于FTRL,最新版本是具有 90 亿个特征和超过 1350 亿个参数的稀疏神经网络模型。

使用微软提供的最大通用模型发现隐藏的意图

MEB 业已投入生产环境,所有区域和语言的必应搜索 100%都用上了它。它是我们在微软提供的最大的通用模型。它展示了一种出色的能力,可以记住这些二进制特征所代表的事实,同时以一种持续的方式从大量数据中可靠地学习。


我们凭经验发现,对如此庞大规模的数据进行训练是大型稀疏神经网络的独特能力。将相同的必应日志输入一个 LightGBM 模型,并使用传统数字特征(例如 BM25 和其他类型的查询和文档匹配特征)进行训练时,使用的数据量超过一个月后模型质量就不再提高了。这表明这个模型的容量不足以从更多数据中受益。相比之下,MEB 是在积累三年的数据上训练的,我们发现为它添加更多数据后它还能继续学习,这表明模型容量会随着数据增加而增长。


与基于 Transformer 的深度学习模型相比,MEB 模型还展示了有趣的超越语义关系的学习能力。在查看 MEB 学习的主要特征时,我们发现它可以学习到查询和文档之间的隐藏意图。



表 1:MEB 模型学习的示例


例如,MEB 了解到“Hotmail”与“Microsoft Outlook”两个词密切相关,尽管它们在语义上并不接近。MEB 发现了这些词之间微妙的关系:Hotmail 是一种免费的基于 Web 的电子邮件服务,由微软提供,后来更名为 Microsoft Outlook。类似地,它了解到“Fox31”和“KDVR”之间有很强的联系,因为 KDVR 是位于科罗拉多州丹佛市的电视频道的呼号,该频道的运营品牌叫 Fox31。同样,这两个短语之间并没有明显的语义联系。


更有趣的是,MEB 可以识别单词或短语之间的负面关系,找出那些用户不希望在查询中看到的内容。例如,搜索“baseball”的用户通常不会点击谈论“hockey”的页面,即使它们都是流行的运动。类似地,用户搜索“瑜伽”的时候不会去点击包含“歌舞”的文档。理解这些负面关系有助于搜索引擎忽略不相关的搜索结果。


MEB 学到的这些关系与基于 Transformer 的 DNN 模型学到的关系有很好的互补性。搜索相关性的提升对用户体验的改善是非常明显的。在我们的生产级 Transformer 模型上引入 MEB 带来了以下收益:


  1. 头部搜索结果的点击率CTR)增加了近 2%。用户无需向下滚动页面即可找到相关结果。

  2. 手动查询重构行为减少了 1%以上。用户需要手动重新制定查询内容,意味着他们不喜欢他们在原始查询中找到的结果。

  3. 分页点击量减少了 1.5%以上。用户需要点击“下一页”按钮,意味着他们没有在第一页找到他们想要的东西。

MEB 如何训练数据并大规模提供特征

模型结构

如图 1 所示,MEB 模型由一个二进制特征输入层、一个特征嵌入层、一个池化层和两个密集层组成。输入层包含 90 亿个特征,由 49 个特征组生成,每个二进制特征编码为一个 15 维嵌入向量。在对每组 sum-pooling 和 concatenation 之后,向量通过两个密集层产生一个点击概率估计。



图 1:MEB 是一个稀疏神经网络模型,由一个接受二进制特征的输入层、一个将每个二进制特征转换为 15 维向量的特征嵌入层、一个 sum-pooling 层应用于全部 49 个特征组并通过 concatenation 以产生一个 735 维的向量,然后通过两个密集层来产生一个点击概率。此图中展示的特征是从示例查询“Microsoft Windows”和文档https://www.microsoft.com/en-us/windows生成的,如图 2 中所述。

训练数据和统一特征为二进制

MEB 使用了来自必应的三年搜索日志作为训练数据。对于每次必应搜索曝光(impression),我们使用启发式方法来确定用户是否对他们单击的文档感到满意。我们将这些“感到满意”的文档标记为正样本。同一曝光中的其他文档被标记为负样本。对于每个查询和文档对,我们从查询文本、文档 URL、标题和正文文本中提取二进制特征。这些特征被输入到一个稀疏神经网络模型中,以最小化模型预测的点击概率和实际点击标签之间的交叉熵损失。


特征设计和大规模训练是 MEB 成功的关键所在。MEB 特征是在查询和文档之间非常具体的术语级别或 N-gram 级别的关系上定义的,传统的数字特征无法捕获这些信息,因为后者只关心查询和文档之间的匹配计数。(N-grams 是 N 项的序列。)为了充分挖掘这个大规模训练平台的力量,所有的特征都被设计为二进制特征,可以很容易地用一致的方式覆盖人工制作的数字特征和直接从原始文本中提取的特征。这样做可以让 MEB 在一条路径上进行端到端的优化。当前的生产模型使用三种主要类型的特征,如下所述。

查询和文档 N-gram 对特征

N-gram 对特征是基于必应搜索日志中查询和文档字段的 N-gram 组合生成的。如图 2 所示,来自查询文本的 N-gram 将与来自文档 URL、标题和正文文本的 N-gram 结合形成 N-gram 对特征。更长的 N-gram(对于更高的 N 值)能够捕捉更丰富和更细微的概念。然而,随着 N 的增加,处理它们的成本呈指数级增长。在我们的生产模型中,N 设置为 1 和 2(分别为 unigrams 和 bigrams)。


我们还通过组合整个查询文本和文档字段来生成特征。例如,特征“Query_Title_Microsoft Windows_Explore Windows 10 OS Computer Apps More Microsoft”是从 query=“Microsoft Windows”和 document title=“Explore Windows 10 OS Computer Apps More Microsoft”生成的特征。

桶化数字特征的单热编码

数字特征首先会分桶,然后通过应用单热(one-hot)编码将其转换为二进制格式。在图 2 所示的示例中,数字特征“QueryLength”可以采用 1 到 MaxQueryLength 之间的任何整数值。我们为此特征定义了 MaxQueryLength 存储桶,以便“Microsoft Windows”这个查询具有等于 1 的二进制特征 QueryLength_2。

分类特征的单热编码

分类(Categorical)特征可以通过单热编码,以一种直接的方式转换为二进制特征。例如,UrlString 是一个分类特征,每个唯一的 URL 字符串文本都是一个不同的类别。



图 2:上面是 MEB 特征外观的一个示例。左侧展示了一个示例查询文档对,其中查询文本、文档标题、URL 和片段作为特征提取的输入。右侧展示了 MEB 生成的一些典型特征。例如,“Microsoft Windows”这个查询和文档标题“Explore Windows 10 OS, Computers, Apps, & More | Microsoft”生成了一个 Query x Title 特征“Query:Microsoft Windows_Title:Explore Windows 10 OS Computer Apps More Microsoft”。由于“Microsoft Windows”这个查询包含两个术语,因此生成了二进制特征“QueryLength_2”。查询词和文档标题词的每个组合都可以生成一个 Query unigram x Title unigram 特征的列表,例如“QTerm:Microsoft_TitleTerm:Explore”等。

持续训练支持万亿查询/文档对,每天刷新

为了在如此巨大特征空间上完成训练,我们利用了由微软广告团队构建的内部大型培训平台 Woodblock。它是一种用于训练大型稀疏模型的分布式、大规模、高性能解决方案。Woodblock 建立在 TensorFlow 之上,填补了通用深度学习框架与对数十亿稀疏特征的工业需求之间的空白。通过对 I/O 和数据处理的深度优化,它可以使用 CPU 和 GPU 集群在数小时内训练数千亿个特征。


就算用上了 Woodblock 管道,用包含近一万亿个查询/文档对的必应搜索三年累积日志训练 MEB 也很难一蹴而就。相反,我们采用了一种持续训练方法,模型每次都会在之前几个月的数据基础上再加入新一个月的数据继续训练。


更重要的是,即使在必应中实现后,模型也会每天使用最新的每日点击数据刷新训练数据集,如图 3 所示。为了避免过时特征的负面影响,一个自动过期策略会检查每个特征的时间戳,并过滤掉过去 500 天内未出现的特征。经过持续的训练,模型的日常更新部署得以完全自动化。



图 3:上面是一个流程图,说明了 MEB 是如何每天刷新的。生产 MEB 模型每天都使用最新的单日必应搜索日志数据进行持续训练。在新模型部署并在线提供服务之前,会从模型中删除过去 500 天内未出现的陈旧特征。这可以保持特征的新鲜度并有效利用模型容量。

使用必应 ObjectStore 平台服务超大模型

MEB 稀疏神经网络模型加载到内存时占用 720GB 的空间。在流量高峰期,系统需要维持每秒 3500 万次特征查找,因此无法从一台机器上服务 MEB 模型。相比之下,我们利用了必应的自研ObjectStore服务来托管和服务 MEB 模型。


ObjectStore 是一个多租户、分布式键值存储,支持数据和计算托管。MEB 的特征嵌入层在 ObjectStore 中实现为一个表查找操作,每个二进制特征哈希用作检索其在训练时产生的嵌入的键。池化层和密集层部分的计算量更大,在一个承载用户定义函数的 ObjectStore Coproc(一个接近数据的计算单元)中执行。MEB 将计算和数据服务分离到不同的分片中。每个计算分片占用一部分用于神经网络处理的生产流量,每个数据分片托管一部分模型数据,如图 4 所示:



图 4:计算分片中的 ObjectStore Coproc 与数据分片通信,以检索特征嵌入并运行神经网络。数据分片存储特征嵌入表,并支持来自每个 Coproc 调用的查找请求。


由于在 ObjectStore 上运行的大多数负载都是专门做存储查找的,因此将 MEB 计算分片和内存中数据分片放在一起,可以让我们最大限度地利用运行在多租户集群中的 ObjectStore 的计算和内存资源。由于分片分布在多台机器上,我们还能够精细控制每台机器上的负载,以便在 MEB 中实现个位数毫秒的服务延迟。

支持更快的搜索,更好地理解内容

我们发现像 MEB 这样非常大的稀疏神经网络可以学习到基于 Transformer 的神经网络无法理解的细微关系,从而成为后者的有效补充。这种对搜索语言的更深入理解能力为整个搜索生态系统带来了一系列显著好处:


  • 由于搜索相关性的提升,必应用户能够更快找到内容并完成任务,减少重构查询内容或翻到第 1 页之后的需要。

  • 由于 MEB 可以更好地理解内容,发布商和网站管理员可以获得更多访问其资产的流量,并且他们可以专注于满足客户,而不是花时间寻找有助于提升他们排名的正确关键字。一个具体的例子是产品品牌重塑,MEB 模型可以自动学习新旧名称之间的关系,就像它对“Hotmail”和“Microsoft Outlook”所做的那样。


如果你使用 DNN 为你的业务提供动力,我们建议你尝试使用大型稀疏神经网络来为这些模型提供补充。如果你有大量的用户交互历史流,并且可以轻松构建简单的二进制特征,我们尤其推荐这样做。如果你沿着这条路走下去,我们建议你应该让模型尽可能接近实时地更新。


MEB 只是我们团队创建有影响力的尖端技术以提高规模和效率,进而改进搜索体验的一个例子。如果你对搜索和推荐的大规模建模感兴趣,我们的 Core Search & AI 团队正在招人!你可以在微软职业网站上找到我们当前的职位空缺。

作者介绍

Junyan Chan是微软搜索和人工智能领域的首席应用科学经理。她领导的团队专注于对必应网络搜索中的基本问题进行排名。团队利用了最先进的 NLP 和机器学习技术来改进 Web 相关性模型,并为微软用户带来更满意的搜索体验。他们的工作包括了通过超大规模深度学习模型、稀疏神经网络 DNN、LightGBM 等技术实施数据创新、特征工程和模型改进。


Frédéric Dubut与微软的工程和数据科学团队合作,管理必应有机搜索排名的产品团队。他们的工作涵盖搜索、个性化、实验和机器学习运维。


Jason(Zengzhong)Li是微软 WebXT 平台的合作伙伴组工程经理。他的工作重点是大规模低延迟分布式服务系统,包括 k-v 存储、倒排索引服务、向量索引和深度学习模型推理。他也对稀疏密集索引和近似最近邻搜索等信息检索算法感兴趣。


Rangan Majumder是微软的搜索和人工智能副总裁。他们的使命是通过减少用户的信息需求与图像、文档和视频中的所有知识之间的摩擦,让世界变得更智能、更高效。他们应用最先进的语言理解、视觉理解和多模态理解来构建更好的搜索、个人助理和生产力应用程序。


原文链接:


https://www.microsoft.com/en-us/research/blog/make-every-feature-binary-a-135b-parameter-sparse-neural-network-for-massively-improved-search-relevance/

2021-11-19 10:002271
用户头像
刘燕 InfoQ高级技术编辑

发布了 1112 篇内容, 共 540.3 次阅读, 收获喜欢 1977 次。

关注

评论

发布
暂无评论
发现更多内容

架构第三周-学习总结

J.Smile

极客大学架构师训练营

架构师训练营 第三周 学习总结

一雄

学习 极客大学架构师训练营 第三周

第 3 周 - 课后作业

大海

单虚拟机搭建kafka集群

Leonbond

kafka

第三周学习总结

天之彼方

设计模式

第03周 重构软件代码 学习总结

Jaye

week3-作业一

Coder

第三周总结

大雄

Week3 总结

TiK

极客大学架构师训练营

10分钟带你入门git到github

root

Java git GitHub 版本控制

单虚拟机搭建zookeeper集群

Leonbond

zookeeper

第03周 重构软件代码 命题作业

Jaye

架构师训练营 -- 第三周作业

stardust20

架构师训练营第三章作业

吴吴

架构师训练营 第三周 作业

一雄

极客大学架构师训练营 作业 第三周

第三周总结

芒夏

极客大学架构师训练营

架构师训练营 - 作业 - 第三讲

吕浩

架构师训练营 - 第三周 - 学习总结

stardust20

架构师训练营-W03S-代码重构

赤色闪电

极客大学架构师训练营

设计模式

ashuai1106

设计模式 架构师 极客大学架构师训练营 23种设计模式

架构师训练营week03 总结

fujin

架构师 极客大学架构师训练营

架构师训练营第三周学习总结

不谈

极客大学架构师训练营

极客大学架构师训练营第三周学习总结

竹森先生

设计模式 极客大学架构师训练营

架构师训练营第三周作业

Java 极客大学架构师训练营

「架构师训练营」单例与组合模式的应用

Amy

极客大学架构师训练营 作业 第三周

【架构训练 Week03 作业】

Rex

架构师训练营-W03H-代码重构

赤色闪电

极客大学架构师训练营

第三周-作业

铁血杰克

Week3 作业

TiK

极客大学架构师训练营

【架构训练 Week03 作业】Review

Rex

架构师训练营第三周作业

Bruce Xiong

详解微软大规模稀疏模型MEB:参数高达1350亿,可显著提升搜索相关性_AI&大模型_微软工程团队_InfoQ精选文章