写点什么

Twitter 如何应用 Druid 分析 ZB 级实时数据?

  • 2020-03-11
  • 本文字数:3011 字

    阅读完需:约 10 分钟

Twitter 如何应用 Druid 分析 ZB 级实时数据?

Druid 是一个用于大数据实时查询和分析的高容错、高性能开源分布式系统,旨在快速处理大规模的数据,并能够实现快速查询和分析。尤其是当发生代码部署、机器故障以及其他产品系统遇到宕机等情况时,Druid 仍能够保持 100% 正常运行。


Apache Druid 社区在今年初发布了Druid 0.17.0。这是该项目自 Apache Incubator 毕业以来的第一个版本,因此也是一个重要的里程碑。


Twitter 在一年多之前就开始采用 Druid,并应用到多个场景中。对于 Twitter 的实践经验,我们采访了 Twitter 大数据引擎负责人罗震霄。他将在 QCon 全球软件开发大会(北京站)2020 分享主题为《Twitter ZB 级实时数据分析实践》的演讲。


罗震霄,Twitter Sr. Staff Engineer,负责 Twitter 大数据引擎的开发与运营,主要负责项目 Druid、Presto、Spark、Hive。在加入 Twitter 之前,在 Uber、Netflix、Facebook 从事大数据相关的研发与管理工作。是 Presto Foundation committer 和技术委员会委员。他于复旦大学获得学士学位,并于 University of Wisconsin Madison 获得硕士学位。


InfoQ:您好,请问 Druid 自开源以来,有哪些重要的演化?


罗震霄:Twitter 用 Druid 已经有一年多了,从 0.15 到 0.17,这几个版本都比较稳定,主要的变化有:


  • 设计并实现了 Native Ingestion,彻底摆脱了对 MapReduce 的依赖,可以直接 Ingest Parquet,ORC 文件。

  • Data Ingestion 设计了 Indexer Process。

  • SQL 功能持续加强。

  • 方便易用的用户界面。

  • 更全面的 Security and Privacy Support,例如 LDAP Authentication and Authorization。


InfoQ:一般的企业,哪些场景需要使用 Druid?Twitter 为什么选择了 Druid?Twitter 里有哪些 Druid 的应用举例?


罗震霄:Druid 的主要特点是性能快,规模大,易用性好。


  • 性能可以达到 1 秒以下,真正实现了大数据的实时性计算;

  • Druid 单群可以扩展至 2000 台节点以上,很好的满足了企业对大数据规模的要求;

  • Druid 的用户界面非常友好,用户常常可以通过拖拖拽拽进行查询,方便非技术类人员的应用。


Twitter 业务有很多实时的大数据需求,我们当时对比了市场上现有的开源方案,在稳定性、扩展性、性能和易用性方面 Druid 都有一定优势,最后选择 Druid。目前来看公司上下对 Druid 还比较满意。


Twitter 所有的 user events 都通过内部 Message Queue 导入 Druid,用户可以实时对 Druid 进行查询,也可以在 Druid 基础上设置各类的监控和提醒。实时监控很好的利用了 Druid 性能快和方便查询的特性。


Twitter 内部用 Druid 很多,有三大类:其一,将用户行为数据导入 Druid,进行实时用户行为分析;其二,通过 Druid 为广告商提供实时的广告效果分析;其三,利用 Druid 的实时特性,做实时监控和实时报表。


InfoQ:比如现在某个企业已经有了成熟的 Lamda 架构的离线实时系统。而 Druid 也是 Lamda 架构的,那哪些部分是可以相互 Share 的吗?


罗震霄:Druid 需要自己的存储,可以将 Message Queue 同时导入离线系统和实时系统(Druid)。


如果对一些数据经过滤后有实时的计算需求,也可以通过 Hadoop Distributed File System 将数据导入 Druid。


一般来说,企业的 Message Queue 可以共享,Hadoop Distributed File System 也可以作为 Druid 的数据源进行共享。


Twitter 现在正在开发 Presto Druid Connector,通过 Presto 实时查询 Druid 数据,这样企业内部的查询语言,查询系统也可以共享。


因为 Twitter 数据分析大多数是通过 SQL 进行的。公司上下对 SQL on Druid 的需求很高。


现有的 DruidSQL 功能不太完善,SubQuery、Join 都不支持。如果将 Druid 数据再导入其他存储系统,不仅费时费力,而且很难保证数据的一致性。基于这些考虑,我们决定开发 Presto Druid Connector,用 Presto 对 Druid 数据提供完整的 SQL 分析,避免了数据重复,节省了存储空间,而且还可以利用 Presto Connector 的优势,跨平台进行 Join 操作,比如,Join Hadoop Data with Druid Data。


现在有一些用户在使用 Presto Druid Connector,大家还是比较满意的。下一步,我们会进一步提升性能,pushdown 各类子运算到 Druid。最终的愿景是争取将所有的 SQL 操作统一到 Presto 上来。


InfoQ:如果一个系统每天需要处理 PB 级别的系统,再增加一个 Druid 这样的存储系统,是不是很大程度上增加了存储空间的压力?原系统和 Druid,最好的融合方式是什么样的?


罗震霄:为了性能的提升,Druid 需要自己的存储。对 Twitter 而言,查询速度,和系统的易用性,较之存储空间,更为重要。


Druid 需要做自己的存储的原因是:


Druid 一个重要的设计目标是实时查询,也就是查询延迟一定要在 1 秒以下。


现有硬件的基本性能决定,从内存中顺序读取 4GB 数据的延时在 1 秒左右,实际应用场景中,我们处理的数据远远大于 4GB,所以,没有索引,仅仅靠扫描文件,是不可能达到实时查询要求的。


基于这些考虑,Druid 设计并实现了自己的存储格式,主要是列式存储,并应用字典、RLE 等方式进行优化。Druid 还设计了 bitmap 索引。在实际应用中,bitmap 索引会以 mmap 方式放在内存中。绝大多数查询可以通过 bitmap 索引直接找到结果,少数查询会通过列式存储进行有选择性的文件查询。


我们也在开发一些项目,尽量减少不必要的数据重复。比如 Presto Druid Connector,通过 Presto 实时查询 Druid 数据,这样当用户需要对 Druid 数据进行 SQL 分析时,用 Presto 就可以了,不必要拷贝数据。


InfoQ:Druid 和 Kylin 这样的开源软件主要差别在哪里?


罗震霄:对 Kylin 实在不太熟悉,不好妄加评论。


我们当时主要考虑的是 Druid 和 Pinot,这两个现在应用比较广泛。相对而言,Druid 更稳定一些,社区也更大一些。


InfoQ:目前还有哪些 OLAP 平台可供选择?Druid 相对有何优势?


罗震霄:现有的 OLAP 平台比较多,开源方面,有 Hive、 Impala、Spark、Presto、Drill、Druid、Pinot 等等。


Twitter 现在的技术布局:对实时计算,统一于 Druid,对秒级到几十分钟级的数据分析,统一于 Presto,对小时级别的 ETL,统一于 Spark。


Druid 主要的优势在性能,稳定性,扩展性,和易用性。能够达到 1 秒以下的实时引擎,只有 Druid 和 Pinot,如果考虑到扩展性和稳定性,Druid 的优势比较明显。


InfoQ:在 Twitter 里,您们定制了关于 Druid 的哪些开发功能?(与开源版本不同的功能)


罗震霄:主要是四个方面:


  • 对 Thrift 文件格式的支持,Twitter 内部有大量的 Thrift 文件。

  • Presto Druid Connector,通过 Presto 对 Druid 数据进行 SQL 分析。

  • Multi-tenancy Druid,Druid 支持不同的用户类型,包括数据安全,隐私保护,和数据隔离。

  • Native Ingestion,摆脱对 MapReduce 的依赖,直接导入 Parquet 文件。


InfoQ:未来,Twitter 还计划对 Druid 开发或加强哪些功能?


罗震霄:主要有以下计划:


  • Unified Indexing Service,为用户提供方便的一键式导入。

  • Secure Druid,完整的 Druid 信息安全,包括 LDAP Authentication and Authorization。

  • Pushdown for Presto Druid Connector,用 Presto 为 Druid 提供完整的 SQL 分析,并充分发挥 Druid 的性能优势,包括 Predicate Pushdown, Aggregation Pushdown,Limit Pushdown。


QCon北京2020的演讲中,罗震霄老师将会分享 Twitter 在 ZB 级实时数据分析实践中遇到的经验和教训。还有多位国内外一线互联网企业的技术专家为大家分享新的实时计算和数据分析技术发展趋势,大量真实生产实践案例或许能给你带来新的启发,点击了解详情


2020-03-11 17:212213

评论

发布
暂无评论
发现更多内容

从人工到智能!百度AI开发者大会分论坛,探寻国球乒乓背后的AI之路

百度大脑

人工智能

百度飞桨EasyDL桌面版正式上线,没网也能训练AI!

百度大脑

人工智能

Git基础 |打tag

xcbeyond

git 28天写作 tag 12月日更

有趣的灵魂万里挑一:从智能座舱看汽车进化史

脑极体

百度智能云发布零碳园区解决方案,助力实现双碳目标

百度大脑

人工智能

【架构实战营】模块三:命题作业

wgl

「架构实战营」

详细架构设计文档

Anlumina

#架构实战营

ALC北京发起人 姜宁:通过开放与协作,我们可以实现一个人想都不敢想的事情 I OpenTEKr 大话开源 Vol.6

OpenTEKr

大话开源

架构实战营4期-模块3作业

木几丶

「架构实战营」

费用节省 50%,函数计算 FC 助力分众传媒降本增效

阿里巴巴云原生

阿里云 云原生 合作 函数计算FC 分众传媒

一个cpp协程库的前世今生(一)缘起

SkyFire

协程 cpp cocpp

Java 数据持久化系列之池化技术

程序员历小冰

MySQL 持久化 28天写作 池化技术 12月日更

第三周学习总结

糖糖学编程

架构实战营

Hoo研究院币 | 币海寻珠——加密行业即将到来的发售事件

区块链前沿News

加密货币 虎符 虎符交易所

元宇宙很好,但VR开发者不准备停留在这里

白洞计划

VS Code 如何设置大小写转换快捷键

AlwaysBeta

vscode

【架构实战营】模块三:知识点总结

wgl

「架构实战营」

阿里巴巴超大规模 Kubernetes 基础设施运维体系揭秘

阿里巴巴云原生

阿里云 Serverless Kubernetes 云原生 ASI

外包学生管理系统详细设计文档

糖糖学编程

架构实战营

最近火热的web3到底是什么?

石云升

区块链 28天写作 12月日更 web3

架构实战 模块三作业

mj4ever

架构实战

引领人工智能技术自立自强 百度吴甜获评“首都最美巾帼奋斗者”

百度大脑

人工智能「

瞰见 | 开源,会不会变成开源创业的焦油坑?

OpenTEKr

狄安瞰源

阿里云王志坤:强劲可靠、无处不在的云,为创新保驾护航

阿里云弹性计算

弹性计算 年度峰会

架构实战营 - 模块 3 - 作业

Pyel

「架构实战营」

深入理解一下Python中的面向对象编程

宇宙之一粟

Python 面向对象 12月日更

Golang中文件的基本操作

liuzhen007

Go 28天写作 Go 语言 12月日更

架构实战营:模块三作业

Geek_93ffb0

「架构实战营」

学习总结 2021.12.30

mj4ever

学习笔记

一口气搞懂【Linux内存管理】,就靠这60张图、59个问题了

奔着腾讯去

内存泄露 内存管理 Linux Kenel 内存映射 内存池

架构实战营模块三作业

lchx08

「架构实战营」

Twitter 如何应用 Druid 分析 ZB 级实时数据?_开源_Tina_InfoQ精选文章