写点什么

一种易扩展高可用的分布式订单系统架构

  • 2020-02-19
  • 本文字数:9766 字

    阅读完需:约 32 分钟

一种易扩展高可用的分布式订单系统架构

伴随着移动互联网的高速发展、中国第三方支付的快速增长,以及丰富的移动支付产品,深刻改变和培育了中国人民的无现金生活方式,也极大的推进了整个社会经济的发展。对于支付宝和微信支付这样的国民应用,海量交易带来的系统可用性问题成了关乎国计民生的问题。作者在 2016 年到 2018 年有幸参与了微信支付的核心系统的部分开发和改进,也切实感受到支付系统可用性关乎每个产品使用者的产品体验。


支付宝作为国内的另一个电商和支付巨头,他们走出一条自研高可用分布式存储系统的道路,在存储层应对了海量的电商交易和双 11 交易海啸的冲击,作者对于支付宝如何解决无状态服务的可用性工作不太了解。本文结合作者在微信支付参与的核心订单系统的可用性治理的相关项目的经验,思考和总结海量交易所带来的扩容、成本、容灾和灰度等问题及解决方案,提出了一种基于 MySQL 单机存储引擎,业务和存储强耦的易扩展、高可用的分布式订单系统方案。


本文主要讲述了基于交易单元构建的高可用分布式订单存储系统,交易单元是由无状态服务和有状态存储服务组成的交易单元架构的基本单元,通过交易单元可以实现线性扩缩容的能力;在下单时通过订单重试的操作可以允许一次下单重试更换到可用的交易单元,这样可以应对少数交易单元不可用带来的下单不可用问题;同时基于交易单元的架构也带来了冷热分离、故障压缩、差异服务、热点均衡和灰度控制的能力。基于交易单元化的架构虽然带来很多优点,但同时也造成业务和存储强耦合问题,另外业务开发人员在开发时也需要了解整体架构而不能更加专注业务逻辑,让真正专业的架构师在架构层面进行脱离业务的可用性治理。


关键词 - 订单系统、高可用、易扩展、分布式、订单重试、交易单元、海量存储

一、简介

随着移动支付的飞速发展,移动支付用户量持续增加,移动支付已悄无声息的融入到国民的生活并且产生重要的作用。在支付系统中,一笔交易往往需要多个相关系统的协作完成,其中包括支付产品系统、订单交易系统、风控系统、支付系统、账号系统、商户系统、账户系统和清结算系统等等。在一个交易系统中一笔交易是通过一笔订单进行标识的,订单系统需要提供创建订单、支付订单、查询订单、关闭订单和订单退款的能力。订单系统作为其它系统的依赖系统,它的可用性将直接影响整个交易系统的可用性。交易系统的可用性将直接影响用户的交易体验和整个品牌的口碑。


传统的银行都是基于大型的商业服务器和正版授权的数据库软件构建自己的交易系统,互联网有别于传统银行,往往是采用小型廉价的商业服务器和开源的数据库软件构建自己的交易系统。另外传统银行的交易系统是集中式的,而互联网企业多采用分布式系统构建自己的系统,这样对数据的一致性、灾备、可用性提出更高的要求。


对于大型企业或者第三方数据库公司,它们会研发一些自己的分布式数据库存储,例如 OceanBase、TiDB 等。但是很多企业还是会采用开源的 MySQL 作为自己的数据库系统,一种基于 MySQL 实现的易扩展、高可用支持海量存储的订单交易系统对于一个企业也是一种很好的方案选择。


本文会讨论一种基于 MySQL 构建的海量订单交易系统,高可用和易扩展作为整个系统两个主要特征。为了达到整个系统的高可用,可用性主要包含三种改进:


1)通过使用 DBProxy 来进行数据库的快速切换解决存储不可用。


2)通过交易单元化进行物理隔离防止单存储故障导致的不可用扩散。


3)在系统顶层通过订单重试来降低逻辑服务和存储不可用带来的影响。


为了解决系统的容量,主要通过交易单元的水平扩展来扩充整个系统的容量,同时交易单元化的结构可以很好的解决数据冷热分离的问题。在系统的垂直方向整个系统主要分为代理层、逻辑服务层和存储层;系统在水平方向是由众多物理隔离的交易单元组成的,一个交易单元包含了对应的逻辑服务和存储,同时交易单元也是水平扩展的基本单位。


本文主要先描述整个系统的整体架构,接下来会描述传统架构中存在问题并提出对应的解决方案,然后会讨论整个架构对可用性和易扩展的实现细节以及交易单元化架构带来的优点和缺点。

二、业界现状

交易系统的可用性主要分为无状态服务的可用性和有状态存储的可用性,无状态服务的可用性相比更容易解决,而有状态存储服务的可用性则成为整个交易系统的核心瓶颈。为了解决有状态存储服务的可用性,业界也研发了很多的金融级分布式系统存储方案。例如 Google 的 Bigtable、MegaStore 和 Spanner;Facebook 的 MyRocks;阿里的 OceanBase 和 X-Engine;腾讯的 TDSQL;PingCap 的 TiDB。这里的存储主要分为两个大的方向:基于关系型数据库构造建分布式关系型存储系统和基于 NoSQL 构建的分布式存储系统。分布式关系型存储系统如 OceanBase、MyRocks 和 TDSQL 等;分布式 NoSQL 存储系统如:Spanner、X-Engine 和 TiDB 等。


近代互联网时代,Google 的存储技术是整个互联网行业的技术标杆,其发表的 GFS、Bigtable 和 Spanner 等一些列技术成果,奠定了近几十年的存储发展方向。其存储系统也经历 Bigtable、MegaStore 到 Spanner 的演化,并且 Spanner 是第一个把数据分布在全球范围内的系统,并且支持外部一致性的分布式事务。不管是在存储的理论研究和技术实现,Google 都是这个时代的拓荒者。


Facebook 作为一家技术实力同样强劲的互联网厂商, MyRocks 是 Facebook 开发的一款基于 RocksDB 的开源 MySQL 存储引擎,并且已经稳定支撑 Facebook 的海量业务,并作为 Facebook 的 MySQL 的主分支。


阿里作为中国电商的代表性公司每天都会面临海量的交易,虽然海量交易代表业务的快速增长,但也会对整个交易系统的可用性、扩展性、一致性、性能等提出了更高的要求。在中国移动支付整体快速增长以及阿里的双 11 活动的推动下,阿里的交易系统也在一次一次的交易海啸中快速成长起来。阿里整个集团不仅完成了去 IOE,也完成存储的自研,以及到打磨成为业界顶尖的互联网分布式金融存储产品。阿里目前分布式存储产品有完全自主研发的金融级分布式关系数据库 OceanBase 和阿里数据库产品事业部自研的 OLTP 数据库存储引擎 X-Engine 等。OceanBase 作为完全自主研发的金融级分布式关系数据库,支持强一致、高可用、高扩展、高性能、高度兼容和低成本等特性。OceanBase 是基于单机关系型数据库,根据数据特性分为基线数据和更新数据构建的一种类 Bigtable 的分布式存储系统;而 X-Engine 定位于为阿里云上的公有云客户提供低成本高性能的数据库服务。X-Engine 采用了基于 LSM Tree 的分布式架构,通过优化和借助硬件加速从而提供更低成本下的高性能的读写的 OLTP 存储解决方案。


伴随着微信支付的快速发展,以及用户持续增长和交易量的增长。腾讯的财付通作为支付底层的服务提供者有自研的金融级分布式数据库 TDSQL,不仅支撑微信红包业务,也在腾讯云为更多的企业用户提供分布式数据库解决方案。由于历史原因,微信支付的核心订单系统没有将所有的可用性转移到分布式存储系统,而是走出了一条基于单机关系型数据库,业务和存储强耦的高可用订单系统方案。本文的方案是基于微信支付的方案总结和抽象的方案,虽然没有采用一些分布式存储方案,但它同样可以达到高可用,线性扩容的能力。


除了阿里和腾讯,PingCap 是一家专注开源的新型分布式数据库公司,其研发的分布式关系型数据库 TiDB 项目具备分布式强一致性事务、在线弹性水平扩展、故障自恢复的高可用、跨数据中心多活等核心特性,并提供 HTAP 的一站式解决方案。虽然 TiDB 没有海量的交易,但作为一家专注存储自研的公司,代表了中国自研存储的努力和崛起。

三、系统架构

通过上节的描述,订单交易系统的可用性更加聚焦在有状态存储服务的可用性,一些高可用、强一致的分布式存储方案可以解决问题。也正如前面提到,本文提出的系统没有采用高可用、强一致分布式存储系统,而是采用了基于单机存储,存储和业务强耦的一种订单可用方案。这里的方案也可以为一些想构建高可用、线性的订单存储,而没有分布式存储系统开发能力的企业提供一些借鉴。



图 1: 订单系统架构概览


如图 1 所示的整个系统的简要结构,整个系统是由代理层和若干的交易单元共同组成的,每个交易单元内包含无状态的逻辑服务和有状态的存储。整个系统在垂直方向分为三层:代理层、逻辑服务层和存储层。其中,代理层主要功能包含订单路由和订单重试、逻辑服务层聚合业务特性、数据的增删改查和单机事务等、存储层负责数据的存储;在水平方向是由多个可动态扩缩的交易单元组成。

3.1、交易单元

交易单元是系统构成的基本单元,可以通过交易单元的逻辑聚合实现读写分离、冷热分离、差异化服务、和提升版本发布质量等。整个系统的容量是通过动态的添加和删除交易单元来达到容量的动态扩缩容;系统的可用性通过对存储不可用问题提出针对性的解决方案和优化来提升整个系统的可用性。


系统中各交易单元是物理隔离的,如果存在交易单元不可用,在代理层可以通过跳过不可用交易单元保证订单的创建和订单支付有很高的可用性。交易单元不可用还是会影响该交易单元内的订单查询和订单退款,实际中订单查询和订单退款相比订单创建和订单支付可以更加柔性和更好的容忍度。通过上面的描述整个系统通过无状态的代理层和订单重试共同保证系统的创建订单和支付订单有很高的可用性。交易单元内的无状态逻辑服务采用多机部署,这样一个交易单元内所有逻辑服务同时不可用的概率将会将低,通过选择合适的副本数可以提高整个条带的可用性;交易单元内的存储也是多机部署,一主多备可以保证集群的数据的灾备和可用性,集群内的主备之间采用半同步保证数据的最终一致(或者采用基于 Paxos 改造 BinLog 的强一致数据存储,例如 PhxSQL 等)。

3.2、订单号

基于业务和单机存储强耦的订单存储方案,本质是将存储层的分布式方案上移到业务层进行实现。对于通用分布式存储系统中主键的概念,在分布式订单存储系统中可以天然的使用订单号来代替。存储的分布式一般采用基于 Range 或者 Hash 的分片方案,一般先生成好一个全局唯一的主键,然后根据主键决定好数据所在的分片,我们称之为分片先绑定。文章中提出的方案是,通过随机在所有可用的分片中随机选取一个作为当前单号所在的分片,然后将分片的编号记录在到订单号中并进行订单的创建,我们称这种方案为分片迟绑定。


订单号 = (版本号,交易单元编号,时间,订单编号)


订单号主要由版本号、交易单元编号、时间信息和订单编号组成。其中版本号用于控制订单号的版本升级;交易单元编号存储了数据所在的交易单元,根据交易单元编号进行路由;时间信息用于记录单号的生成时间,根据时间和访问频率决定数据冷、热和温的程度;订单编号用于保证订单号在全局的唯一性,根据我们的交易单元方案可以降级到(交易单元编号,时间信息,订单编号)唯一即可,这样订单编号只需要在一个交易单元内唯一即可。同时会降低对全局唯一序号生成器的依赖,这样每个交易单元都可以使用交易单元内的序号生成器进一步提高整个系统的可用性。

3.3、路由信息表

路由信息表维护了每个交易单元的路由信息,每条路由信息维护了每个交易单元的编号、逻辑服务的地址和端口、存储服务的地址和端口、交易单元是否可用、交易单元的冷、热、温等情况、以及所属分区。如表 1 所示,交易单元编号是一个增长的 ID,没新增一个交易单元就自增的为交易单元分配一个新的 ID;分区是交易单元的逻辑聚合概念,我们可以根据聚合的分区 构建重点商户分区、普通商户分区、预发布分区和 冷分区,从而提供差异服务、冷热隔离等能力。



每个交易单元都有自己的对应的逻辑服务和存储服务,通过配置的地址我们可以在逻辑上形成逻辑隔离的交易单元, 如果机器也不混合部署和重复使用,交易单元在物理上也是隔离的。可用状态表明当前交易单元是否可用;冷热状态表明 DB 中数据的时间特性,我们粗略分为冷、 热和温三类。

3.4、代理服务

代理服务作为整个订单系统的入口,需要提供下单、支付、查单和关单等接口。下单属于创建订单,支付和关单属于更新订单,查单属于查询订单。下单的时候,代理服务需要正确和均匀的选择交易单元,并在某些交易单元不可用的情况下进行订单重试保证有限订单重试次数内可以找到可用的交易单元。


对于支付、查单和关单需要正确解析单号中的交易单元信息,进行正确的路由。由于代理服务是无状态的逻辑服务,为了提高代理服务的可用性,通过水平部署多个代理服务实例可以解决。假定同一时刻只有有限个代理服务实例同时不可用,业务方在一次请求中进行失败重试便可将请求路由到其它正常的代理服务,从而保证代理服务具有较高的可用性。

3.5、交易单元

传统的基于 MySQL 的系统架构中为了扩充系统的容量一般会采用水平的分库分表策略,通过对主键进行哈希将数据分布在不同的机器上从而提升系统的容量。例如实际系统假定有 8 组 DB,可以将主键按 8 求余进行存储,但是这样的方案存在两个缺点:冷热分离和翻倍扩容。在订单系统中,订单记录在一段时间之后很少会进行订单查询和订单退款,所以具有明显的冷热特性。为了更好的利用机器资源,一般会将冷数据进行分离并存储到低成本的机器进行存储和访问。对于上面的 Sharding 模式,我们需要按天建表进行冷数据分离。对于上面的 Sharding 模式,扩容的时候会选择将 DB 的数量增加到 16 组,需要将扩容的数据拷贝一份到新的机器上,然后根据 16 进行请求重新计算路由,上面的过程被称作翻倍扩容。上面的翻倍扩容对于实时订单系统是无法忍受的,我们更希望对系统的容量进行线性扩缩容,同时不需要影响已经生成的订单。


为了更好的支持冷热数据分离和线性扩容,我们提出基于交易单元的动态扩容架构。一个交易单元作为存储的基本单元,其中包含了无状态的逻辑服务和有状态的存储,通过增加和减少交易单元的数量进行线性的扩缩容。

3.6、事务

对于交易系统很多场景下会面临需要操作多个资源同时成功或者失败,如转账、多个单据状态的同时扭转等。在单机关系型数据中我们会使用单机事务来进行解决,同样对于分布式系统需要系统具备分布式事务的能力。由于分布式事务的实现复杂、性能低下等特点,在业务系统中往往会将分布式事务转化为单机事务进行解决,或者将分布式事务根据核心程度划分为主事务和次事务,通过将次事务通过异步组件进行异步补偿完成整个事务。另外,由于交易系统一笔交易往往会操作多个相关的交易单据,我们可以将相关的多个单据部署在同一个分片,这样就可以转化为单机事务进行解决。


通过上面的分析,我们将系统的事务转为交易单元内的单机事务和跨交易单元的异常补偿事务,这样各个交易单元就可以充分解耦做到物理和逻辑的隔离。

3.7、订单重试

在进行下单前,系统中存在一个交易单元健康度的检查服务,它会实时模拟真实订单探测和收集交易单元的健康度、耗时等情况。另外,在某些情况下需要手动屏蔽不可用或者可用的交易单元(如增加或减少订单重试,冷热分离等场景)。在下单的时候,代理服务结合交易单元健康度、黑名单等信息,并在可用的交易单元内根据短期内每个交易单元的请求量选择一个可用的交易单元,然后根据订单号到对应的交易单元生成订单。


如果第一次成功,则直接返回订单号;如果没有成功,此时可以屏蔽掉当前的交易单元,进一步在剩余的可用交易单元内选择一个可用的交易单元,直到重试到达上限。我们称上面不断重试寻找可用交易单元的过程为订单重试,订单重试主要是通过有限次重试跳过不可用交易单元而保证下单操作的高可用。

3.8、健康度检查服务

交易单元健康度检查服务是所有交易单元的观察者,它通过周期性模拟真实的交易探测每个交易单元的可用性和耗时等情况。根据健康度检查服务提供的交易单元可用和耗时信息可以在下单的时候以更高的概率选到可用的交易单元而有效的屏蔽掉不可用的交易单元。交易单元的是否可用也需要提供好的评价策略和兜底方案,防止网络持续抖动时造成过探测导致所有交易单元的不可用。

四、订单流程

对于订单系统,作为支付系统的核心流程,往往需要提供创建订单、更新订单和查询订单的能力。对于订单的复杂查询,为了不影响实时交易链路的可用性,会采用将备机的数据通过可靠的异步组件同步到非实时的数据库进行复杂查询或者统计等操作。


下面会介绍基于上面的交易单元化架构的创建订单、 修改订单和查询订单的流程:

4.1、创建订单

如表 2 所示的流程,主要由入口的路由服务完成订单号的生成以及交易单元不可用时的订单重试操作。


表 2: 创建订单流程:


  • 业务方调用代理服务提供的下单接口进行订单创建。

  • 代理服务访问订单重试健康度检查服务获取当前交易单元的状态及耗时。

  • 根据订单重试健康度信息、交易单元黑名单和交易单元路由表决定候选的可用交易单元。

  • 结合近期每个交易单元的请求数,然后随机选择一个可用交易单元作为本次写入的交易单元。

  • 调用序列号发生器接口获取全局唯一的订单编号。

  • 根据版本号、时间信息、交易单元编号和订单编号,生成订单号。

  • 代理服务根据路由信息表在逻辑服务地址中随机选择一个地址,并发出请求。

  • 逻辑服务根据路由信息表获取存储主机的地址,并建立连接创建订单。

  • 如果上述过程成功,则返回订单号;否则,跳转到 2 执行订单重试流程,直到成功或者重试次数到达上限。


这样可以保证创建订单的一个高可用,即使存在若干不可用的交易单元整个系统还是可以进行下单操作。

4.2、更新订单

如表 3 所示的流程,当业务在下单流程获取订单号之后,业务方携带单号,代理服务解析单号中的交易单元编号,就可以保证请求在对应的交易单元内进行请求, 并正确找到对应 DB 的信息。


表 3: 更新订单流程:


  • 业务方调用代理服务提供的支付、关单或者退款等接口进行订单更新。

  • 代理服务解析订单号中的交易单元编号。

  • 根据交易单元编号查询路由信息表获取逻辑服务的地址,并发出请求。

  • 逻辑服务根据路由信息表获取存储主机的地址,并建立连接更新订单。

  • 如果成功,则返回成功;否则返回错误。

4.3、查询订单

对于订单查询,我们可以将查询分为实时的读请求和非实时的读请求。实时的读请求读取主库的数据,主要为核心链路提供准确的数据查询;非实时的读请求读取备库的数据,主要为核心链路提供降级的备机读取以及非实时链路的读取。


表 4: 查询订单流程


  • 业务方调用代理服务提供的实时或非实时查询接口进行订单查询。

  • 代理服务解析订单号中的交易单元编号。

  • 根据交易单元编号查询路由信息表获取逻辑服务的地址,并发出请求。

  • 逻辑服务根据路由信息表获取存储主机的地址,并建立连接查询订单。

  • 如果成功,则返回成功;否则返回错误。


如表 4 所示 的流程,当业务在下单流程获取订单号之后,业务方携带单号,代理服务解析单号中的交易单元编号,就可以保证请求在对应的交易单元内进行请求,并正确找到对应 DB 的信息。

五、架构特性

5.1、线性扩容

对于海量交易的系统,线性扩容成为一个重要的特性。线性扩容给整个系统提供了更多的灵活性以应对特定时期的交易洪峰,并且能通过简单的扩缩容取得交易处理能力和成本的平衡。对于业务可能快速持续增长的系统,线性扩容能力可以应对不必要的系统重新设计和重构。

5.2、故障压缩

由于各交易单元是逻辑和物理隔离的,不管是由于交易单元内 DB 导致的故障或者灰度发布导致的故障,相应的故障只会压缩在该交易单元内,不会扩散导致整个系统的雪崩。通过统计我们可以简单估算每个条单不可用的概率,然后估算整个系统不可用的概率。

5.3、差异服务

根据我们抽象的交易单元概念,我们可以再聚合某些交易单元为一个分区,某些商户的请求只可以落在某些分区的交易单元内。这样不同的分区提供不同的机器、带宽等,可以实现对重点商户和非重点商户的差异化服务。

5.4、冷热分离

当系统某些交易单元的容量到达预警值,或者其中的数据已经超过某个冷却阈值。我们可以将交易单元变为只读和可更新,但不能再进行数据的写入。等到数据的访问量下降到某个阈值后,可以将交易单元内的全量数据停写后拷贝到冷库,然后修改交易单元路由信息中的存储服务地址为冷数据所在的新机器的地址。然后删除旧机器上的数据并新增一个空的交易单元,这样就可以简单的完成冷热数据分离,同时上面的过程可以实现完全自动化。

5.5、灰度控制

在互联网系统的可用性问题中,统计发现很多版本的问题可以通过合理的灰度提早发现和解决。基于交易单元的架构可以轻松的构建预发布环境,预发布环境通过后可以控制新版本先对某些生产交易单元进行灰度发布,然后逐步灰度到所有的交易单元。同时还可以通过控制某些交易单元的请求量从而可以做到更细粒度的灰度。

5.6、热点均衡

在选择分区的时候,可以统计近期每个交易单元创建的订单数作出一个合理的交易单元选择,从而达到最大程度的数据均衡,避免传统分片模式下数据倾斜的问题。

六、备份、容灾和恢复

6.1、备份

为了应对机架级不可用、机房级不可用和城市级不可用,需要通过数据备份进行容灾。可以根据业务的容灾选择合理的容灾级别,通常业务会选择一主两备的三机备份策略。

6.2、数据一致性

如果采用 MySQL 作为交易单元内的存储引擎,MySQL 支持同步复制、异步复制、半同步复制、增强半同步复制和 MGR(MySQL Group Replication)。通常我们很少采用同步和异步复制,在 MySQL5.7 增强半同步之前 DBA 多会采用半同步复制,但如果主机宕机切换到备机会出现一定的数据不一致。为了解决半同步带来的问题,MySQL5.7 之后推出了增强半同步。但是 MGR 是基于 Paxos 的强一致复制方案,但是 MGR 业界的互联网公司却很少有公司采用。

6.3、容灾

我们假定所有的机房都在一个城市内的不同机房,为了应对城市内的机房级不可用,我们需要将三份数据分布在同城的三个不同机房内,同时保证每个机房内有相同的主机和备机的数量,对机房级进行负载均衡。当出现机房级以及机房级以下的不可用,可以快速的进行主机切换保证业务的可用性,如果出现整个机房的不可用最多会损失 1/3 的交易量。但是对于交易单元化的架构,我们可以快速调整交易单元路由信息表将不可用的交易单元进行屏蔽,这样只会有一个短暂的不可用。

七、架构缺点及改进

  • 对于分布式事务不太友好。

  • 其实可以将更多的能力下降到存储进行解决, 这样对业务人员的架构能力提出较高的要求。

  • 如果现行系统进行改造的成本过高。

八、总结

上文首先描述了基于单机 MySQL 构建的业务和存储强耦合的高可用海量分布式订单系统,基于抽象的交易单元概念使得整个系统架构天然具备了一些线性扩容、故障压缩、冷热分离、灰度控制、差异服务和热点均衡等能力。虽然不同于支付宝通过强一致分布式存储系统来保证分布式存储服务的高可用,但这种构建于单机 MySQL 的架构更加适合没有独立研发分布式存储的企业。从目前业界存储演进的方向来看,强一致的分布式关系型数据存储系统还是业界努力的方向。

参考文献:

• Paxos Made Simple - Leslie Lamport


• The Part-Time Parliament - Leslie Lamport


• In Search of an Understandable Consensus Al- gorithm (Extended Version)


• Bigtable: A Distributed Storage System for Structured Data


• Spanner: Google’s Globally-Distributed


http://myrocks.io


https://oceanbase.alipay.com


• X-Engine: An Optimized Storage Engine for Large-scale E-Commerce Transaction Processing


https://pingcap.com/docs-cn/


https://cloud.tencent.com/document/product/557

作者介绍

王林强,2016 年 3 月-2018 年 10 月在微信支付从事后台开发,主要参与支付系统相关特性开发和支付系统可用性治理工作;2018 年 10 月-至今就职于字节跳动,参与了存储项目开发和支付项目的开发。作者主要兴趣在分布式一致性、分布式事务、分布式存储系统、海量交易系统架构和高可用、区块链 和数字货币等,并参与过分布式存储系统和海量交易系统的开发和可用性治理。


【小广告】作者目前就职于字节跳动参与支付项目的开发,欢迎感兴趣的小伙伴交流和学习。对于国际化和支付感兴趣的小伙伴可以参看下面的链接 https://job.toutiao.com/s/sG42ej


活动推荐:


在 2020 年 7 月 10 日,ArchSummit全球架构师峰会将与大家见面,这是特殊的一年,很多企业的口号已经换成了“降本增效”,作为架构师,可以在这时期考虑如何用自身技能开创新的业务,如何提高工作效率,为企业增加效益?在此次 ArchSummit 会议上,来自国内外技术专家们交流技术经验,管理经验,传递共渡难关的方法。了解会议内容可以点击 https://archsummit.infoq.cn/2020/shenzhen/


2020-02-19 14:184869

评论 3 条评论

发布
用户头像
扩容好理解,会有新订单到扩容的交易单元去。缩容的话交易单元的数据咋处理的呢?
2021-11-16 16:32
回复
交易单元相互冗余从库吗?
2021-11-16 16:41
回复
用户头像
订单系统本身订单之间没有什么关系。可以分开。如果是用户账务系统。账户之间有很多交互转账,这种方案是否就不可行了呢?
2020-02-21 11:11
回复
没有更多了
发现更多内容

开放下载 | 飞天技术峰会-云原生加速应用构建分论坛资料开放下载

阿里巴巴中间件

阿里云 阿里云云原生

Java: 为Word文档添加水印

Geek_249eec

Java word 水印 watermark

FlyFish|前端数据可视化开发避坑指南(二)

云智慧AIOps社区

JavaScript 大前端 低代码 数据可视化 大屏可视化

天翼云通过2022可信云安全首批云工作负载保护平台评估

Geek_2d6073

迁移 Nacos 和 ZooKeeper,有了新工具

阿里巴巴中间件

zookeeper 阿里云 云原生 nacos 迁移

[教你做小游戏] 用86行代码写一个联机五子棋WebSocket后端

HullQin

CSS JavaScript html 前端 8月月更

云原生2.0构建数字化

科技云未来

首发!这份阿里架构大神编写的K8S+SpringCloud笔记,真是大厂入场券

了不起的程序猿

Java k8s JAVA开发 java程序员

直播预告(本周六)|关于数据可观测性的精彩讨论

观测云

火力全开!鲲鹏应用创新大赛2022区域赛即将陆续开赛

科技热闻

21个赛区,7大赛题,鲲鹏应用创新大赛2022区域赛期待与你相遇

科技热闻

科普达人丨一图看懂块存储&云盘

阿里云弹性计算

阿里云 云盘 块存储

中国掀起数字化浪潮的4个显著变化

优秀

数字化转型 数字化

C++文件读写操作分析文本文件与二进制文件

CtrlX

c c++ 面向对象 8月月更 opp

华为云数字化

科技云未来

leetcode 697. Degree of an Array 数组的度(简单)

okokabcd

LeetCode 数据结构与算法

融云,把企业文化放在“场景”里

融云 RongCloud

企业文化

秒云获得阿里云首批产品生态集成认证,携手阿里云共建云原生智能运维生态服务

阿里巴巴中间件

阿里云 云原生 云原生加速器

华为云助力论坛服务

科技云未来

redis持久化持久化的方案与各自存在的问题

想要飞的猪

网站建设流程

源字节1号

网站开发

IPv6过渡技术的推进策略

穿过生命散发芬芳

ipv6 8月月更

Monorepo 能给前端工程带来什么

领创集团Advance Intelligence Group

前端工程师 Monorepo

K8s小白?应用部署太难?看这篇就够了!

北京好雨科技有限公司

Kubernetes 云原生

监控告警怎么搭建比较合理?B站SRE实践总结了4大关键步骤

TakinTalks稳定性社区

高可用 稳定性 SRE 监控告警 大厂实践

陈大好:持续创造小而美的产品丨独立开发者 x 开放麦

声网

人工智能

Tomcat 的安装与环境配置

楠羽

开源 #开源

正式线上环境下微服务平台落地实践

HelloGeek

微服务 微服务架构 Spring Cloud Service Mesh 服务网格 mesh

企业应用现代化实用教程 | ​IT架构师必读的DevOps落地行动指南

York

DevOps 云原生 数字化转型 一体化架构 应用现代化

灵魂拷问:你精神内耗了吗?由TA来治愈吧

脑极体

程序员过中秋

楠羽

中秋节

一种易扩展高可用的分布式订单系统架构_ArchSummit_王林强_InfoQ精选文章