写点什么

迁移了几十家企业之后,我们总结了如何在云中构建成功的现代数据分析平台

  • 2019-11-29
  • 本文字数:5558 字

    阅读完需:约 18 分钟

迁移了几十家企业之后,我们总结了如何在云中构建成功的现代数据分析平台

我曾与数十家企业合作,帮助他们将旧有数据仓库或者分析数据库迁移至云端。通过亲身经历,我体会到整体式思维与设计在本质上,很难与现代云架构带来的种种优势相兼容。在本文中,我们将具体探讨如何在 AWS 云当中建立起可扩展、灵活且经济高效的数据分析平台模式,同时回顾这种模式在企业当中的成功表现。


内容摘要:我们设计出一套三层架构的数据平台,L1 包含原始文件数据,L2 包含经过优化的文件数据,L3 则充当缓存。数据会首先被归入 L1 当中,而后将各个用例独立转换为 L2,接下来再根据特定的访问模式将其中部分数据缓存至专用数据存储之内。


错误一:“一种数据存储机制即可通吃一切。”

企业在对现有数据分析平台进行现代化时,面临的主要问题就是需要放弃遗留系统中使用的各独立数据库。考虑到构建与运营方面已经投入的海量资金,企业往往很难下决心将其淘汰。我遇到过不少企业,他们投入了数百万美元与多年时间来构建自己的数据仓库,包括其中的各类 ETL 流程、存储流程以及报告工具。同样的,熟悉了原有系统的企业也很难放弃单一工具带来的助益,例如“单一瓶颈”或者“明确的待分析数据位置”等等。


几天之前,Amazon.com 宣布他们正式关闭了零售业务中的最后一套 Oracle 数据库。这是个漫长的转型过程,前后持续了四年多时间。作为 Amazon.com 解决方案架构师,我的第一项任务就是帮助设计一套由常规关系数据库(特别是 Oracle)向云数据库的迁移流程。我与企业中的数十个团队开展合作,对遗留系统进行重新设计,努力从传统的关系数据库转换为更具可扩展性与灵活性的新型数据存储架构。我们的目标是迁移至 NoSQL(主要是 DynamoDB)数据库或者分析(当时主要以 Amazon Redshift 为目标)数据库。对于这些团队来说,放弃以往的舒适区绝非易事:他们能够对每个列进行查询(或者用他们的话来说,进行列搜索)、使用 SQL 作为标准查询语言满足其全部数据需求,同时全程使用早已熟悉到不能再熟悉的工具方案。但是,Amazon.com 决定从长远出发,必须投资建立起几乎拥有无限可扩展空间的基础设施。他们希望技术元素永远不再成为制约业务发展的瓶颈。


几年当中,Amazon.com 以“简化加发明”为基本理念,打造出多种工具以简化整个迁移流程。他们还利用 AWWS 构建起一系列新型目标数据库,主要包括 Amazon Aurora(PostgreSQL 风格的 Oracle 数据库替代方案)以及 Amazon Athena。关于这两套方案,我们将在后文中具体探讨。


对于大多数企业而言,单一工具在发挥云环境中灵活性、规模化、成本、敏捷性以及其他现代架构优势方面也都有着显而易见的局限性。但与此同时,企业也无法容忍系统整体发生崩溃或者卡顿,因此多数客户希望利用云服务(例如 Amazon Redshift 数据仓库服务)或者 Amazon Athena(托管 Presto 服务)、Azure Databricks(托管 Spark 服务)或者谷歌 BigQuery 替代不可扩展且成本高昂的本地数据库——例如 Oracle 或者 MS-SQL。这种一项云服务代替一种整体式本地数据库的方法,在直观上更加简单易行。但遗憾的是,实际情况往往没这么简单,因为之前提到的局限性来自工具的独立性,而不仅仅是其到底运行在哪里。

错误二:“Hadoop 已死,Spark 才是未来。”

每隔大约五年,就传代出现一种足以颠覆整个现代架构的新兴技术。十年之前,Hadoop 开创了可扩展数据处理的新时代,让用户得以通过 Hive、Pig、HBase 等工具打理自己的大数据资源。五年之前,Spark 拿出了远超 Hadoop 的大数据处理速度,比 Hive 更好的 SQL,更具功能现代性的 Scala 与 Python 编程语言(替代 Hadoop 的 Java)以及一系列高人气新功能,并再次改变了游戏规则。


Spark 还拥有良好的工具成熟度,以及在大数据开发人员群体内的广泛认可度与高人气。将 Spark SQL、Spark Streaming 乃至机器学习同 Spark MLlib 结合起来,能够带来极具吸引力的强大功能,也让众多企业将 Spark 视为大数据处理的客观标准。然而,人气的快速飙升以及对数据分析与机器学习的大量需求,令 Spark 的局限性同样暴露无遗。作为 Spark 专家,同事们经常要求我审查并修改那些随着体量增长而变得太复杂或者运行速度太慢的 Spark 代码。另外,我也看到不少企业开始尝试利用 Spark 库构建机器学习模型,Databricks 在这方面就做出了不少努力与贡献。


我个人的建议是,现在大家最好利用基于 PrestoDB 的 SQL 编写数据转移逻辑。与 Scala 或者 Spark 的 Python 相比,SQL 仍然具有多种优势,特别是简洁的形式、更少的代码潜在错误,以及为编写者预留的逻辑发挥空间。当然,负面因素主要来自当前开发人员们的抵触情绪,对他们来说 Scala 或者 Python 更加熟悉好用,而 SQL 则显得比较难上手。

错误三:“所以,Presto 才代表着未来。”

“现代云架构”这个术语是指基于微服务、无服务器以及按需计费(而非按配置计费)的新型架构。这种现代架构的典型代表就是 AWS Lambda(或者 Azure Functions/Google Cloud Functions)。用户只需要编写业务逻辑,其他工作都由云端统一负责打理——告别以年为单位的漫长产品发布周期,无需无数次重复启动及终止服务器或虚拟机,也用不着考虑“生产环境中必须仅代表和 Java”之类的限制。未来,将有成千上万种功能可根据需求随时开发并在必要时执行,业务逻辑网格相互之间完美调用,并根据负载强度随时进行规模伸缩。


在数据方面,Amazon Athena 就是一种无服务器选项。这项服务当前运行在托管 PrestoDB 引擎之上。之所以要加“当前”这个定语,是因为亚马逊方面正在着手为 S3 升级最佳引擎选项 SQL。由 Hive、Impala、SparkSQL 到现在的 Presto,一路演变已经反复证明,我们总能迎来更好更强大的引擎方案。亚马逊也希望避免他们在命名 EMR(此前的 Elastic Map Reduce)服务时犯的错误,这套号称能够简化分布计算的解决方案如今在复杂程度上甚至反超了当初的 MapReduce。


在 Amazon Athena 当中,大家可以使用 SQL 语言编写业务逻辑,而后将查询发送至经过优化以满足数据及查询复杂性要求的一组工作节点。在大多数情况下,只需要等待几秒钟,用户就能够通过 S3 中的 CSV 文件获取查询结果。无需管理服务器,用不着等待服务器启动,也不再为闲置计算设备付费——这,才叫真正的无服务器模式。


但是,也有不少人向我抱怨说 Amazon Athena 太贵了,特别是在运行大量系统管理的分析查询时,其使用成本确实比较夸张。AWS Lambda 也面临着类似的评价。由一次性资源采购(Presto 集群或者用于业务逻辑的应用程序服务器)转向按使用量计费,确实是一场令人心生顾虑的冒险。但完成冒险的秘诀,就是弄清楚该如何优化资源使用量,不过这会加大资源管理难度并吓退不少运营人员。


由于 Amazon Athena 的使用成本直接由查询请求所扫描的数据量决定,因此控制数据体积能够显著降低每一次查询的执行成本。在 Athena 使用方面,最常见的错误就是利用它查询大量原始数据与原始格式(例如 JSON 或者 CSV),并大量依赖它提供的查询功能。

那么,该如何解决?

让我们总结一下到目前为止,我们都探讨了哪些内容。我们了解到,不应使用单一数据存储机制,这会限制我们提升数据使用量的能力。我们了解到,在新兴技术发展到一定的成熟度之后,我们就应该积极了解并学习、测试以及采用这些新的工具与技术。在设计技术系统时,我们应该具有长远的眼光,确保企业业务能够摆脱架构束缚实现无限增长。


有了这样的背景与前瞻性,我们就可以更好地解释为什么有必要在接下来的几个数据层身上投入大量精力,而不只是将所有内容都放进同一套超级数据库(无论您具体选择的是哪一种数据库方案)。


现在来看我推荐的这套架构模式。

第一层(L1)——利用低成本存储容纳原始数据(例如 S3)

所有数据都应以原始格式人各个来源获取,无需进行任何修改或者过滤。数据可以来自物联网设备,Kafka 或者 Kinesis 等流媒体源,文本日志文件,NoSQL,或者 Web 服务中的 JSON、图像、视频、文本注释,合作伙伴提供的 Excel 或者 CSV 文件,或者是需要进行处理及分析的任何其他来源。


数据很难以外部键的形式在不同表之间进行良好组织,我们也无法要求一切地址或者产品 ID 都采取相同的格式。第一层不关心协调工作,也只有这样才能保证系统拥有充分的规模扩展灵活性。很多数据项目之所以遭遇失败,就是因为人们投入了太多时间进行数据组织,却不知道自己组织的大多数数据根本就无法带来任何重要的商业价值。与此同时,这部分浪费的资源自然无法被用于对数据分析平台自身的设计与构建。

第二层(L2)——低成本存储中的多种优化后衍生数据

进入第一层的数据接下来逐步构建起第二层。在首个文件到达第一层后,第二层立即产生,并随着第一层接收数据量的增长而逐步发展。发展的方向以数据可用性为基础,同时配合企业的业务使用情况。输出结果将接受分析,例如进行机器学习预测或者分析报告。下面,我们简要论述小标题描述中的各部分内容。


多种—每种分析用例都都应具有自己的专用独立数据流,当然这也意味着数据将被复制数十次以进行不同方式的计算。需要注意的是,每项分析都会从不同的角度以及不同的业务需求出发审视数据内容。而得出的结果,最终也将服务于不同的业务团队。例如,销售分析、市场营销分析以及物流分析的侧重点就有所区别。


优化 — 从原始格式到分析见解的数据转换过程,也将带来巨大的优化空间。目前最典型的作法就是提取 JSON 数据并将其保存为 Parquet 格式。这种格式既保留列式元素(对单一列的查询仅扫描该列数据),同时也经过了压缩。在利用 Athena 中的“Create Table As Select(CTAS)”处理大部分此类转换结果时,我们都能获得高达 1000 甚至 10000 倍的资源成本改善。我们可以将音频及视频转录为文本,将图像分析为类,或者是对面部表情或者人脸图像进行转换。总而言之,此类分析及查询应当尽可能简单且成本低廉,只有这样分析功能才会真正成为业务人员的日常工作利器。


衍生数据 — 第二层中的数据主要源自原始格式的汇总、过滤或者转换结果,用以匹配特定的业务需求。举例来说,我们可能需要预测品牌商品的每日销售额,但无需单独列出每一款具体产品的销售量。当然,我们也不用担心衍生数据太过粗略,毕竟原始数据还好好地待在第一层里呢。对于其他业务用例,我们可以整理出其他特定的衍生数据。到这一步,可以看到“相同”数据开始呈现出多种不同形式,这是因为数据本身并不真的相同,衍生出的结果可能五花八门。


低成本存储 — 如果大家希望为业务大数据保留几十套“副本”,那么每一套副本的存储成本都必须非常低廉。我发现很多企业都在尝试直接使用原始数据或者不加筛选地将其一股脑塞进计算与内存成本高昂的数据库当中。请记住,如果没有第二层的加持,这种作法很快就会带来我们难以承担的恐怖成本。

第三层(L3)——选择性缓存数据存储

为了帮助用户与数据分析结果进行交互,我们通常需要缓存这些结果,从而提供真正具备可用性的访问速度与查询功能。


下面来看几种我个人比较推荐的方案选项(当然不够全面,每种选项也都对应不同的应用场景):


  • DynamoDB,用于对客户端应用程序的 GraphQL 访问;

  • ElasticSearch,用于文本查询;

  • Redis ,用于对内存内数据集(例如 Sorted-Sets)进行快速操作;

  • Neptune,用于图查询(请不要与 GraphQL 混淆)。


另外,把分析结果缓存到关系数据库(例如 MySQL 或者 Aurora PostgreSQL)也是种常见操作,比较适合那些体积相对较小的数据集及可视化工具、或者只能支持关系数据库的商务智能工具。


最重要的是,现在咱们聊的可是缓存,缓存的成本比前两层高得多得多。因此,请务必斟酌用户的实际使用情况,并随时根据需求进行创建或者删除。如此一来,我们就能在组织之内建立起始终符合灵活性与成本效益要求的分析用例。虽然难度较高,但这一步能让你的企业在智能水平方面更上一层楼、节约使用数据时的时间周期,并有效规划产品发布过程中的敏捷性、成本、规模以及简单性等因素。

运营:编排与监控

要想运行这样一套多层、多用例、多业务线外加多数据存储机制的复杂系统,单独一位数据库管理员甚至是数据库管理团队都不可能胜任。换言之,从项目的起步阶段,我们就必须将自动化考虑进来。


在不少企业中,DevOps 实践已经开始发展,并围绕着微服务、容器、持续集成与部署(CI/CD)衍生出多种新功能。另外,面向云端的迁移工作也越来越引起人们的关注。这一切,都为 IT 架构的现代化升级与能力增强奠定了坚实的基础。但是,对于大多数组织而言,DataOps 仍是一项复杂且难以克服的挑战。新架构与敏捷性的持续发展,对技术人员的能力提出了全方位要求,同时也让企业不得不精心选择合适的工具以全面实现流程自动化。


目前比较常见的编排选项主要分 AWS 原生(Step Functions)、开源工具(主要是 Apache AirFlow)以及托管服务(例如 Upsolver)这几种。我个人对这几种选项都很熟悉,大家需要结合自己的特定用例、数据源、预算以及技术能力等因素决定采用哪种方法。

总结部分

在第一次接触时,下面这副图可能会吓退不少人,因此我才把它留到最后。希望大家在阅读本文并理解了具体原因之后,能够更好地参考并剖析这样一份总结性资料。



云环境中的多层数据流


此图所示为某家客户所使用的实际项目,当然大家可以根据自己的喜好利用其他工具(例如 AirFlow、Grafana 以及 Jenkins)替换其中的编排方案,使用 DataDog 进行监控或者选择 Terraform 实现部署。云的基本概念,就是实现架构模块化并确保在业务需要时随时对其中任意部分进行添加、替换、扩展以及删除。只要大家拥有旺盛的好奇心并愿意学习新兴技术,就完全能够在技术快速进步这一时代背景之下建立并运营起一套强大的现代化数据平台。更重要的是,这样一套数据平台已经成为如今任何一家希望良好生存并提升自身竞争力的企业所不可或缺的数字化与 AI 转型基础。


原文链接:


Building a successful modern data analytics platform in the cloud


2019-11-29 15:532747

评论

发布
暂无评论
发现更多内容

TDengine 流计算实践指南:从平均风速到复杂流计算解析

TDengine

Git的一些基本用法

天翼云开发者社区

git 存储

高并发处理能力源码:选择体育直播软件平台开发公司的关键因素

软件开发-梦幻运营部

nvm报错解决:配置最新淘宝镜像源

源字节1号

开源

宝塔Docker部署Nuxt3 BBS项目

源字节1号

开源

【YashanDB知识库】开源调度框架Quartz写入Boolean值到YashanDB报错

YashanDB

yashandb 崖山数据库 崖山DB

驾控更进阶 长安马自达MAZDA EZ-6树立合资新能源价值新标准

Geek_2d6073

AccessLog| 一款开源的日志分析系统

ClkLog

数据分析 日志分析 埋点 开源软件

2024年值得选择的十大多项目管理工具

爱吃小舅的鱼

项目管理 项目进度管理

基于Java+SpringBoot+Vue前后端分离反欺诈平台设计和实现

hunter_coder

后端开发

Milvus × RAG助力快看多业务应用

Zilliz

人工智能 AI Milvus Zilliz 向量数据库

PostgreSQL成为最受欢迎的数据库; TiDB马拉松大赛开启

NineData

数据库 postgresql Serverless vector TiDB

火山引擎边缘智能平台,让AI走进企业现场

火山引擎边缘云

物联网 智能IoT边缘服务 大模型 AI Agent #大模型

Comparing IPQ5332 and IPQ4029 WiFi Solutions for Data Center Efficiency

wallyslilly

ipq4029 IPQ5332

GPUStack正式发布: 为大模型而生的开源GPU集群管理器

SEAL安全

AI 大模型 AIGC LLM GenAI

全新A/B实验能力,火山引擎数智平台上线广告营销实验

字节跳动数据平台

大数据 A/B测试 对比实验 数字化增长

【YashanDB知识库】列与存储过程中重名变量/别名问题

YashanDB

yashandb 崖山数据库 崖山DB

顶尖缺陷管理工具:小型团队的最佳选择

爱吃小舅的鱼

缺陷管理 缺陷管理软件推荐

Prometheus Pushgateway 协议上报观测云最佳实践

观测云

监控

基于Java+SpringBoot+Vue前后端分离多媒体素材库设计和实现

hunter_coder

后端开发

基于Java+SpringBoot+Vue前后端分离大学生一体化服务平台设计和实现

hunter_coder

后端开发

分布式系统心跳机制(一)

天翼云开发者社区

架构 分布式系统

Footprint Analytics 助力 Core 区块链实现数据效率突破

Footprint Analytics

区块链 EVM

全新征程,Pencils Protocol 成首个单链 TVL 突破 3 亿美元的项目

大瞿科技

喜报!望繁信科技CEO索强与CTO李进峰双双荣获2024上海软件企业技能人才奖

望繁信科技

人工智能 #大数据 流程智能 #流程挖掘 上海望繁信科技

GPUStack正式发布: 为大模型而生的开源GPU集群管理器

GPUStack

AI 大模型 AIGC LLM GenAI

亚信安慧AntDB数据库与用友Yon BIP商业创新平台完成兼容性互认证

亚信AntDB数据库

CBR云备份与恢复管控简介

天翼云开发者社区

云计算 云服务 云备份

ceph数据重构原理

天翼云开发者社区

分布式系统 存储 硬盘故障

迁移了几十家企业之后,我们总结了如何在云中构建成功的现代数据分析平台_大数据_ML-Guy_InfoQ精选文章