本次分享内容:
时序数据平台主要业务场景
时序数据平台体系架构
时序数据平台核心技术
PART01 时序数据平台主要业务场景
上图为数据的整体架构,大部分公司都是差不多的:
原始数据:MySQL、服务端的 Log、APP-Data、Sensor,大家知道现在穿戴设备很多,比如手表等,这样都会产生很多数据,这些数据都称为时序数据,随着时间的变化不断产生数据。
数据采集层:sqoop、DataStream、SDK、Gataway
数据加工层:数据存在 kafka 里,再经过一些流计算处理(Flink、Sparkstreaming)
数据存储分析层:
离线存储分析平台:技术栈包括最底层的 HDFS、Kudu、GP 等数据存储,在这之上要做很多的计算,包括 Hive、Spark、Impala 等,他的应用场景包括数仓报表、机器学习、模型训练等;
在线存储计算平台:应用的业务场景包括,交易订单,优惠券,用户画像等,这里主要应用的是 HBase;
时间序列存储计算平台:应用场景包括,业务设备监控,实时广告平台,物联网应用,相关的技术包括 OpenTSDB、Druid、InfluxDB 等。
所以会根据不同的业务使用不同的平台来处理相关的数据,对于我们来说最大的工作是在数据存储端。
时序数据主要包括时间列、维度列和指标列,这 3 列缺一不可(特别是时间列)。
工业互联网时代,会源源不断产生各种各样的时序数据,时序数据平台有以下几种典型场景:
系统监控:
物理机、云主机、容器:CPU、内存、IO 等
组件服务:数据库集群、Kafka 集群、HBase 集群
任务监控:
查看指定 hadoop 任务耗用内存、CPU、IO 利用率等
查看集群消耗资源 TopN 任务、节点等
统计集群任务执行耗时
应用性能监控:
应用调用次数,错误占比,页面加载延迟统计、地域统计分析
慢加载追踪,慢 SQL
异常会话追踪
链路监控:
调用链全息排查
全局调用拓扑
链路依赖项分析梳理
业务监控统计:
a. 电商
业务大盘:查看单量,金额,发货等业务指标
异常大盘:查看超卖,库存校准耗时,商品回调耗时,各种类型下单错误等异常指标
b. 广告
广告曝光点击消耗实时统计
流量地域分配
以基础系统监控服务为例,举例描述两个应用场景:
物理机基础硬件指标监控
HBase-RegionServe 指标监控
直观地看,以上数据的横坐标都是时间戳,即设备随着时间不断吐数据。
时序数据应用场景的核心特征:
时间区间查询,最近时间区的数据的查询频率远大于历史数据;
多维条件查询,即多维字段随机组合查询;
支持 TTL 机制,数据可以自动过期;
支持高压缩率,数据压缩比要达到 10 以上;
支持高效聚合;
支持集群可扩展,服务高可用,数据高可靠。
PART02 时序数据平台架构体系
时序序列平台以监控类系统体系架构为例,如下图所示:
将多数据来源的数据(如 Agent 采集器,打点日志、流式数据,IoT Hub 等),通过 Kalfa 工具(分布式消息队列系统)进行流式处理,汇集到网易时序数据平台上。
PART03 时序数据平台核心技术
在上述架构体系中,数据库作为其核心环节。考虑到 DDB(分布式 MySQL)实时写入性能不足,HBase/ES 等开源 NoSQL 平台多维查询以及聚合计算等功能不够;针对海量时序数据这类应用场景,因此需要专门的时序数据库。
现有市场上较成熟的时序数据库主要包括 Druid、OpenTSDB、InfluxDB 等。网易结合以上各类时序数据库的优缺点,自主研发分布式时序数据库平台,支持高性能写入和读取,支持多维条件查询,支持聚合计算,且运行开销较小,可私有化、分布式部署。
该时序数据库的分布式集群结构与 hadoop,Hbase,Kudu 等架构非常相似:多台服务器用来存储数据,并通过 Raft 保证数据的一致性。数据的分布式计算是在分布式节点(node)上完成的,每个 node 上的数据存储计算系统称之为 shard server。在 Shard Server 的底层数据存储中,原始数据存一份,再按照索引的方式再存一份。
网易时序数据平台的数据存储方式是这样的:
DataBase 中建立若干 StorePolicy(类似 MySQL 数据库中的表结构),其作用为:
(1) 指定数据过期时间;
(2) 指定数据副本数量;
(3) 指定分片时间间隔。
每个 StorePolicy 中,按照指定的时间间隔建立若干 ShardGroup。将最新写入的数据(称之为热数据)存到对应的 ShardGroup 中,再通过哈希分片的方式将该 ShardGroup 分片成若干个 Shard,这些 Shard 会分布至整个集群。
以上图为例,同一时间段不同 shard 分布到不同的节点上。例如:左侧大方框中包含的 6 条记录,代表该时间段的记录分布在 6 个 shard 里;右侧小方框中的 5 和 6,代表该 shard 共有 2 个副本,分别分布在集群中的 5 号节点和 6 号节点。
由此可以看出,同一时间段的多个 shard 是分布在多个节点上。这样做的好处是:查找指定时间段的数据时,只需要在相应节点中查到对应的 shard 里的数据即可,避免了全局遍历的情况。
3. 数据在 shard 中的存储方式:
(1) 时间线列式存储:
具体来说,SeriesKey 相当于原始数据(DataSource),具有不同维度;存储的时候,所有的时间存到一起,所有的 value 单独存在一起,这种存储方法叫做列式存储。列式存储有两大好处:
每一列数据类型相同,因此压缩率非常高;
方便对列做聚合计算。
什么是列式存储?
传统的关系型数据库如 Oracle、MySQL、SQL SERVER 等,都采用的是行式存储法(Row-based),在基于行式存储的数据库中,数据是按照行数据为基础逻辑存储单元进行存储的,每行中的数据在存储介质中以连续存储形式存在。
不同于行式存储,列式存储以列为基础单元,每列的数据在存储介质中以连续存储的形式存在。
针对海量分布式数据背景的 OLAP(on-line analysis processing),列式存储可在内存中高效组装各列数据并形成关系集,可避免全表扫描,显著减少 IO 消耗。
(2) 倒排索引
支持 sql 语句进行条件筛选;在条件筛选的过程中,使用倒排索引方法,实现快速定位,可“直达用户需求”。
正排索引:key-value 中,通过 key 去寻找 value;
倒排索引:通过 value(或包含 value)去寻找对应的 key。
正排索引需要首先对全局进行扫描遍历,进而从中做筛选;而倒排索引可以仅抽取符合条件的 value 值,节省大量的资源。
(3) shard 自动扩容
数据库作为分布式系统,需要考虑系统的扩容(即增加节点)。
增加节点后,为保证数据存储的均衡,将不再更新的数据(即历史数据)作为 cold shard,平均分布到集群的所有节点(包括新增加的节点)中,而实时更新的数据(即 hot shard,随时间不断写入)不做任何处理。
(4) 多级存储优化
考虑到时序数据的一个特点:热数据查询概率远大于冷数据。针对这一特性,做了如下两个优化:
A. 考虑到数据文件可能存在多级索引,针对冷数据,只加载一级索引即 root 索引;针对热数据,会加载所有索引。
B. 因此针对集群服务器配置方面,每个集群 12 块盘,只需要 1 块 ssd 用来存储 hot shard 即可,其余均使用普通 hhd 即可,最大程度降低硬件成本。
cluster 是整个集群,包含 n 个 node;
node 通常掌控独立的资源,包括 cpu 等;一台机器可以多个 node。
shard 一般是从数据角度来说。例如,1000 条数据按 id 分,存 10 份,就是 10 个 shard。
shards 分散在多个 node 上。
最后通过以上手段,来实现刚刚所说的时序数据应用场景的核心特征:时间区间查询,多维条件查询,支持 TTL 机制,支持高压缩率,支持高效聚合,支持集群可扩展,服务高可用,数据高可靠。
作者介绍:
范欣欣,网易大数据技术专家,专注于 HBase、TSDB 等大数据系统的开发运维,主导网易工业互联网平台建设。
本文来自 范欣欣 在 DataFun 社区的演讲,由 DataFun 编辑整理。
评论 1 条评论