写点什么

菜鸟实时数仓技术架构演进

  • 2020-05-18
  • 本文字数:5266 字

    阅读完需:约 17 分钟

菜鸟实时数仓技术架构演进

导读: 在开源盛世的今天,实时数仓的建设已经有了较为成熟的方案,技术选型上也都各有优劣。菜鸟作为物流供应链的主力军,时效要求已经成为了核心竞争力,离线数仓已不能满足发展的需要,在日益增长的订单和时效挑战下,菜鸟技术架构也在不断发展和完善,如何更准更高效的完成开发和维护,变得格外重要。本文将为大家分享菜鸟技术团队在建设实时数仓技术架构中的一些经验和探索,希望能给大家带来启发。


本文主要包括以下内容:


  • 以前的实时数据技术架构

  • 数据模型、计算引擎、数据服务的升级

  • 其他技术工具的探索和创新

  • 未来发展与思考

01 以前的实时数据技术架构


数据模型


  • 业务线内部模型层次混乱,数据使用成本特别高

  • 需求驱动的烟囱式开发,完全没有复用的可能性,计算成本居高不下

  • 各业务线横向或者纵向的交叉,导致开发过程中数据一致性偏差较大

  • 纵向的数据模型,导致 BI 使用时比较困难


实时计算


  • 我们之前使用阿里云的 JStorm 和 Spark Streaming 进行开发,这两部分能满足大部分的实时数据开发,但是应用到物流供应链场景当中,实现起来并不简单,甚至无法实现

  • 很难同时兼顾功能、性能、稳定性以及快速故障恢复能力


数据服务


  • 开发过程中,实时数据下沉到 MySQL,HBase 等数据库中,查询和保障方面不灵活

  • BI 权限控制和全链路保障不可靠

02 数据模型升级

1. 模型分层



参考离线数仓,将实时数据进行分层,第一层是数据采集,将从 MySQL 等数据库中采集到的数据放到 TT 消息中间件中,然后基于 TT 消息中间件和 HBase 的各种维表关联产生事实明细宽表,再将生成的数据写到 TT 消息中间件中。通过订阅这个消息产生轻度汇总层和高度汇总层两层。轻度汇总层主要按照多个维度沉淀数据,高度汇总层主要用于大屏场景。


2. 预置分流



左边公共数据中间层是将所有业务线整合在一起,然后进行分层。右边的业务数据中间层是各个业务基于横向的公共数据中间层的基础上,去分流自己业务的数据中间层,然后根据这些实时的消息,个性化的产出自己业务的数据中间层。比如不同的订单,可以横向分流成进口供应链和出口供应链。这样实现了上游只需要一个公共分流作业完成,节约了计算资源。


3. 菜鸟供应链实时数据模型



左边是公共的数据中间层,里面包含整个大盘的订单数据,大盘的物流详情,汇总的公共粒度数据等,在这个基础之上做了个分流任务,然后从物流订单,物流详情等里面拆分出我们自己个性化的业务,比如国内的供应链,进口的供应链以及出口的供应链等。经过这些步操作之后,可以轻易的区分哪些表是大屏的数据,哪些表是统计分析的数据,在数据易用性方面有了很大的提升。

03 计算引擎的提升

一开始,我们采用了 JStorm 和 Spark Streaming 进行实时开发。这两个计算引擎在满足大部分的场景时,没有特别大的问题,但是在应用到供应链或者物流场景时,不是那么简单。所以我们在 17 年切换到了 Flink 上,Flink 提供了一些很实用的功能,而这些功能在一些供应链的场景下比较适用。



首先是内部 Flink 支持一套完整的 SQL 写法,提高了开发效率。第二点是 Flink 内置的基于 State 的 retraction 机制,很好的支持了供应链当中的取消订单,换配等这种操作,而且非常简单。Flink 的 CEP 功能,方便的实现了超时统计的功能,还有目前正在推的 AtoScaling 方案,比如数据倾斜,资源配置等。另外一点是 Flink 在批流混合问题的处理,有很好的支持。


1. 神奇的 Retraction



左边有 4 列数据,第 1 列数据是物流订单,第 2 列的数据是物流订单的创建时间,第 3 列数据是这个订单是不是被取消,第 4 个数据是计划配送公司,就是订单分配给哪个配送公司。这个业务需求看上去非常简单,其实就是统计每个配送公司计划履行的有效单量有多少。但是有两个点需要注意一下,第一点,有一个订单 LP3,在开始的时候是有效的,然后在最后一条时取消了,就变成了一个无效订单,但这一条订单不应该统计在内,因为业务需求统计的是有效订单。第二点,配送公司的转变,LP1 这个订单在一分钟时是 tmsA 来配送,后来变成了 tmsB,再过了一段时间,这个订单又变成 tmsC 配送。如果基于 Storm 增量计算,得出的结果显然是错误的,这时要按照最后一次消息给我们传过来的数据统计。这样的场景在 Flink 中是如何实现的呢?Flink 也提供了一些非常好的回撤机制,下面是伪代码的实现:



第一段代码使用 Flink 的 last_value 函数,获取这个订单最后一个消息非空的值,在这个基础上进行汇总。一旦 last_value 中字段发生变化,都会触发撤回机制,得到最后正确的值。


2. 实时超时统计



这个案例发生在菜鸟实际物流场景中,第 1 个表格是一个日志的时间,第 2 个是物流订单,第 3 个字段是出库时间,最后一个字段是揽收时间,现在需要统计的是出库超 6 个小时没有被揽收的单量。这里涉及到全链路时效问题,全链路时效指从下单到仓库发货到快递揽收到签收的整体时间,这个场景放在离线中是非常容易实现的,但是放到实时中来不是很简单, 比如 LP1 在 00:05 分的时候没有揽收,现在如果当下时刻是 12 点的话,也没有揽收,理论上应该计算这个订单,但是没有揽收就意味着没有消息进来,没有消息进来我们又要统计,其实我们用 Flink 是没法统计的,那这种情况我们怎么处理呢?我们的解决方案是如果没有这条消息我们用 Flink 来制造这条消息。这种超时消息统计我们想到了几种方法:


包括引入消息中间件 ( kafka ) 和 Flink 的 CEP。最终选择了 Flink 的 Timer Service,因为这种消息不是特别多,中间件又特别重。而 CEP 会丢掉一些回传不准确的消息,导致数据计算不准确,针对这些情况,我们在调研之后选择了 Timer Service,同时我们对它底层的 ProcessElement 和 OnTimer 两个方法进行了改写。ProcessElement 告诉 Flink 存储什么样的数据,然后启动针对每一个超时的事件的 Timer Service。OnTimer 方法会在每个超时的时刻读这个超时的消息,并把这个超时的消息下发下来。基于下游跟正常流的关联操作之后就能计算超时消息的单量。伪代码如下:



先构造一个 process funcation 到 state 存数据,并为每一个超时的数据注册一个 Timer Service。然后执行 OnTimer 这个方法,读取并把这个超时的消息下发下去。


3. 从手动优化到智能优化



关于数据倾斜的问题,左图显示在 map 阶段 shuffer 之后数据倾斜到了红色的 Agg 上,这时就出现热点了,原来我们是对这个 lg_order_code 进行 hash 取值操作,然后再针对散列的结果进行二次的聚合,这样操作后在一定程度上减轻了数据的倾斜。在最近的 Flink 的版本中已经实现了规避数据倾斜的方法,我们内部的 Blink 版本,有几个功能去优化热点的问题,第一个就是 MiniBatch,之前来一条数据,我们就去 State 里面查询然后写入,MiniBatch 的作用是把所有的数据先聚合一次,类似一个微批处理,然后再把这个数据写到 State 里面,或者在从 State 里面查出来,这样可以大大的减轻对 State 查询的压力。第二个办法就是 LocalGlobal,类似于在 hive 中 map 阶段中的 combiner,通过设置这个参数可以在读的时候先聚合。第三个办法是 PartialFinal,类似于散列的方式,分两次聚合,相当于 hive 中两个入 reduce 操作。通过设置这三个参数,可以在大部分场景规避数据倾斜的问题。



智能化功能支持的另一个场景是资源配置。在进行实时 ETL 过程中,首先要定义 DDL,然后编写 SQL,之后需要进行资源配置。针对资源配置问题,菜鸟之前的方案是对每一个节点进行配置,包括并发量、是否会涉及消息乱序操作、CPU、内存等,一方面配置过程非常复杂,另一方面无法提前预知某些节点的资源消耗量。Flink 目前提供了较好的优化方案来解决该问题:


  • 大促场景: 该场景下,菜鸟会提前预估该场景下的 QPS,会将其配置到作业中并重启。重启后 Flink 会自动进行压测,测试该 QPS 每个节点所需要的资源。

  • 日常场景: 日常场景的 QPS 峰值可能远远小于大促场景,此时逐一配置 QPS 依然会很复杂。为此 Flink 提供了 AutoScaling 智能调优的功能,除了可以支持大促场景下提前设置 QPS 并压测获取所需资源,还可以根据上游下发的 QPS 的数据自动预估需要的资源。大大简化了资源配置的复杂度,使得开发人员可以更好地关注业务逻辑本身的开发。

04 数据服务的升级


在开发的过程中常用的数据库比较少,因此统一数据库连接标准是有必要的。我们开发的叫天工,它可以提供整个数据库统一的接入标准,提供统一的权限控制,提供统一的全链路的保障。这个中间件将 SQL 作为 DSL,并且提供一些标准化的 HSF 的服务方式。作为菜鸟数据服务的践行者,天工也提供了一些非常贴近业务的,非常实用的功能,下面是几个案例。


1. NoSQL To TgSQL



对于 HBase 这种 NoSQL 数据库,BI 或者运营来说用代码来实现需求是比较困难的,所以开发天工的时候第一件事情就是把一些 NoSQL 转化成天工 SQL,包括我前面说的一个人员的表转化成一个二维表,这里是逻辑的转换,不是实际物理上的转化,大家通过运行这个 SQL,后台的中间件会自动转化成查询的语言,去查询后台的数据。


2. 跨源数据转化



在开发数据产品的过程中,我们发现实时跟离线有时候分不开,比如有一个比较大的场景,需要统计实时 KPI 的完成率,它的分子是实际单量,分母是已经计划好的单量,数据源是来自两个部分,第一个部分来自已经做好的 KPI 的一个表,然后第二部分是一个实时计算出来的表。对于这种场景,之前我们是用 Java 去计算这两部分数据,然后在前端去运算,比较麻烦。现在通过天工 SQL 直接取这两部分数据关联,做到跨源数据的操作。


3. 服务保障升级



原来在整个服务的保障比较缺失,比如某个数据服务出了问题,我们直到运营反馈的时候才发现有问题,或者数据量比较大的时候,要去做限流和主备切换。所以在数据服务的这一层中也把数据服务保障加到了天工的中间件里面。还有主备双活,将流量大的放在主库,流量适中的放在备库上。针对一些复杂的查询,在执行的时候很慢,我们会自动识别这些慢查询,然后进行阻断,等待资源充足后再执行,当然,也可通过添加白名单用户进行限流。上面这些功能在天工里面都有实现。

05 其他技术工具的探索和创新


除了前面讲的,我们在技术工具上也和阿里云计算平台的事业部进行了探索。每年遇到大促都要进行压测,大家要去启动数据,模拟大促流量,看看我们的实时作业能不能满足预期,比如有延迟,或者 QPS 过高,在原来我们会重启作业,然后把 source 和 sink 改成压测 source 和 sink,操作起来非常的麻烦。后来我们做了一个实时的压测工具,可以做到一键启动所有重要的压测任务,并且会生成压测报告。我们只需要看压测本报告有没有满足我们的预期就行。基于 Flink 之后,我们开始做基于作业进度的监控,比如延迟监控、checkpoint 的监控、TPS 的预警等。

06 未来发展与思考


菜鸟目前在实时数仓方面更多的是基于 Flink 进行一系列功能的开发,未来的发展方向计划向批流混合以及 AI 方向演进。


Flink 提供了 batch 功能。菜鸟很多中小型的表分析不再导入到 Hbase 中, 而是在定义 source 的时候直接将 MaxCompute 的离线维表读到内存中,直接去做关联,如此一来很多操作不需要再进行数据同步的工作。


针对一些物流的场景。如果链路比较长,尤其是双十一支付的订单,在十一月十七号可能还存在未签收的情况,这时候如果发现作业中有一个错误,如果重启的话,作业的 State 将会丢失,再加之整个上游的 source 在 TT 中只允许保存三天,使得该问题的解决变得更加困难。


  • 菜鸟之后发现 Flink 提供的 batch 功能可以很好地解决该问题,具体来讲是定义 TT 的 source,作为三天的实时场景的应用,TT 数据写到离线数据库进行历史数据备份,如果存在重启的情况,会读取并整合离线的数据,即使 Flink 的 state 丢失,因为离线数据的加入,也会生成新的 state,从而不必担心双十一的订单如果在十七号签收之前重启导致无法获取十一号的订单信息。

  • 当然,在上述问题的解决上,菜鸟也踩了很多的小坑。其中的一个是整合实时数据和离线数据的时候,数据乱序的问题。菜鸟实现了一系列的 UDF 来应对该问题,比如实时数据和离线数据的读取优先级设置。


针对日志型的业务场景。比如曝光、网站流量等,其一条日志下来后,基本不会再发生变化。菜鸟目前在考虑将所有解析的工作交给 Flink 来处理,然后再写入到 batch 中,从而无需在 MaxCompute 的 ODPS 中进行批处理的操作。


在智能化方面。前面提到的数据倾斜隐患的规避、资源的优化等,都用到了 Flink 提供的智能化功能。


  • 菜鸟也期望在实时 ETL 过程中的一些场景中,比如去重,也使用 Flink 相应的智能化解决方案来进行优化。

  • 此外,在数据服务保障上,如主备切换等,目前仍然依赖人工对数据库进行监控,菜鸟也期望 Flink 之后能提供全链路实时保障的策略。

  • 最后是业务场景的智能化,阿里 Alink 对于业务智能化的支持也是之后探索的方向。


本次的分享就到这里,谢谢大家。


本文来自 DataFunTalk


原文链接


https://mp.weixin.qq.com/s?__biz=MzU1NTMyOTI4Mw==&mid=2247499737&idx=1&sn=d946ccef2917d9017c1b1778d106ace6&chksm=fbd74db5cca0c4a321cd38369dffd868cb193c98e16d0dd47601d8a85e28790dc977b94e9ac4&scene=27#wechat_redirect


2020-05-18 14:064238

评论

发布
暂无评论
发现更多内容

HashMap 源码分析

小方

Java HashMap底层原理

Python爬虫:BeatifulSoap解析HTML报文的三个实用技巧

老猿Python

Python 爬虫 编程语言 BeatifulSoap Html报文解析

业务需求与系统功能,你分清楚了吗?

BY林子

测试用例 业务需求 测试设计 业务价值

多场景实时音视频通信激增背后,RTC 技术大爆发

融云 RongCloud

ConcurrentHashMap 源码分析

小方

ConcurrentHashMap

Python OOP-3

若尘

oop Python编程

换一个角度,看华为云的变化,云产业的更迭

脑极体

kafka 可视化工具_6个重要维度 | 帮你快速了解这9款免费etl调度工具的应用

敏捷调度TASKCTL

大数据 kafka kettle 调度式分布 ETL

Spring 实战:通过 BeanPostProcessor 动态注入 ID 生成器

看山

Spring实战

MySQL角色(role)功能介绍

Simon

MySQL

看从小自带BUFF的他,如何用代码降低万物互联的门槛

华为云开发者联盟

IoT 华为云 iotda 华为开发者大会2021 万物互联

密码相似性

red

为什么每个程序员都应该了解“康威定律”

soolaugust

编程 架构 设计

Golang 常见架构模式

escray

学习 极客时间 Go 语言 4月日更

Spring优缺点

风翱

spring 4月日更

“拼多多”值得我们学习

小天同学

思考 拼多多 自我感悟 4月日更

实战来了!Spring Boot+Redis 分布式锁模拟抢单!

Java小咖秀

redis 分布式 分布式锁 springboot 抢单

亲爱的开发者,您收到一个启动智能世界的魔方

脑极体

使用 Go 实现一个简单的 k-v 数据库

roseduan

数据库 Go 语言 KV存储引擎

图神经网络在生化医疗方面的相关应用

博文视点Broadview

6大新品重磅发布,华为云全栈云原生技术能力持续创新升级

华为云开发者联盟

华为云 CloudIDE GaussDB(for openGauss) 沃土云创计划 可信智能计算服务TICS

第八次课程总结

小匚

产品经理训练营

产品文档和原型怎么弄?——课堂笔记

Deborah

网络协议学习笔记 Day4

穿过生命散发芬芳

网络协议 4月日更

产品经理训练营学习总结

新盛

话题讨论|华为云再报大动作,云厂商未来战场在哪里?

程序员架构进阶

话题讨论 28天写作 4月日更

小白也能看懂的操作系统之内存

程序猿阿星

操作系统 内存 内存管理 内存优化

前端架构演进 - 从单体到微前端(理论篇)

Teobler

大前端 架构演进

2021团体程序设计天梯赛总结

玄兴梦影

算法 总结 比赛

工作三年,小胖连 Redis 持久化都不知道?真丢人!

一个优秀的废人

redis 持久化 aof rdb

30亿参数,华为云发布全球最大预训练模型,开启工业化AI开发新模式

华为云开发者联盟

AI nlp 华为云 盘古 预训练模型

菜鸟实时数仓技术架构演进_开源_贾元乔(缘桥)_InfoQ精选文章