写点什么

中国移动苏州研发中心消息队列高可用设计之谈

  • 2019-08-22
  • 本文字数:6409 字

    阅读完需:约 21 分钟

中国移动苏州研发中心消息队列高可用设计之谈

前言

高可用的定义,指的是“一个系统经过特有的设计与改造,减少因不确定故障停服的时间,从而对业务使用方来说可以保证其服务的高度可用性”。在生产环境中,往往会存在很多不可预知的故障因素,比如虚拟机宕机、磁盘损坏和网络故障等,因此系统自身的高可用是任何工业级产品所需重点考虑的因素。


对于消息队列服务来说,考虑到故障切换和业务感知等问题,传统的高可用方式(冷备或者热备)一般都不太适用。在经过多种技术方案对比后,我们发现采用基于 Raft 共识算法的多副本设计方案可以满足我们产品的要求,因此在鉴权认证组件和 API 计量服务组件中,我们集成了蚂蚁金服开源的 SOFAJRaft 库,实现这两个组件应对单点故障的高可用。

背景知识:Raft 共识性算法是什么?

Raft 是一种分布式系统中易于理解的共识算法,该协议本质上是 Paxos 算法的精简版,而不同的是依靠 Raft 模块化的拆分以及更加简化的设计,其实现起来更加容易和方便。[1]


模块化的拆分主要体现在 Raft 把一致性协议划分为如下几部分:


  • Leader 选举;

  • Membership 变更;

  • 日志复制;

  • Snapshot;


而更加简化的设计则体现在:Raft 不允许类似 Paxos 中的乱序提交、简化系统中的角色状态(算法定义 Leader、Follower 和 Candidate 三种角色)、限制仅 Leader 可写入、采用随机超时触发 Leader Election 机制来避免“瓜分选票”等等。[2]

1.1 Raft 算法的整体结构概览


从上面的 Raft 算法整体结构图中可以看出,整个分布式系统中同一时刻有且仅有一个 Leader 角色的节点(如图最右边的服务器),只有 Leader 节点可以接受 Client 发送过来的请求。Leader 节点负责主动与所有 Follower 节点进行网络通信(如图左边两个服务器),负责将本地的日志发送给所有 Follower 节点,并收集分布式系统中多数派的 Follower 节点的响应。此外,Leader 节点,还需向所有 Follower 节点主动发送心跳维持领导地位(即:保持存在感)。


所以,只要各个节点上的日志保持内容和顺序是一致的,那么节点上的状态机就能以相同的顺序执行相同的命令,这样它们执行的结果也都是一样的。

1.2 Raft 算法的三种角色及转换

  • Follower:完全被动,不能发送任何请求,只接受并响应来自 Leader 和 Candidate 的 Message,每个节点启动后的初始状态一般都是 Follower;

  • Leader:处理所有来自客户端的请求、复制 Log 到所有 Follower,并且与 Follower 保持心跳请求;

  • Candidate:节点竞选 Leader 时的状态。Follower 节点在参与选举之前,会将自己的状态转换为 Candidate;


1.3 任期与逻辑时钟概念


  • 时间被划分为多个任期 term(如同总统选举一样),term id 按时间轴单调递增;

  • 每一个任期开始后要做的第一件事都是选举 Leader 节点,选举成功之后,Leader 负责在该任期内管理整个分布式集群,“日志复制”、“通过心跳维护自己的角色”;

  • 每个任期至多只有一个 Leader 节点,也可能没有 Leader (由于“分票”导致);

1.4 Raft 算法的实际应用实现

目前,Raft 算法已经成熟地应用于诸多知名的开源项目中。业界非常著名的 Etcd(Kubernetes 高可用强一致性的服务发现组件)和 TiKV (高性能开源 KV 存储)均是 Raft 算法的实现。

BC-MQ 基于 Raft 的高可用设计

为满足企业上云和构建万物相连的物联网业务需求,中国移动苏州研发中心结合自身在云计算产品和技术的较多积累,研发了大云消息队列中间件产品 BC-MQ。该产品基于 Apache 开源社区的 RocketMQ 内核,同时结合云端 PAAS 产品架构和消息中间件的应用业务需求进行深度优化和定制化的研发,提供了一款可以满足于云端场景的高性能、高可靠、低延迟和高可用的工业级产品。


本节从解决原有高可用技术方案的问题视角出发,同时结合选型 SOFAJRaft 库的缘由,将详细阐述 BC-MQ 产品中的安全认证和 API 计量采集服务的高可用设计方案(注:这里不会涉及到安全认证和 API 计量采集组件本身的技术方案细节)。

2.1 GlusterFS+Keepalived 高可用方案与问题

1. GlusterFS+Keepalived 高可用设计方案

在 BC-MQ 原有的方案中,多组安全认证服务各自独立部署组建集群,各个安全认证服务相互独立,没有主从关联,服务本身无状态,可水平任意扩展。安全认证服务的高可用依赖于 RPC 通信的客户端保证,其主要通过负载均衡算法从安全认证服务集群选择一个节点发送 RPC 请求来实现租户级鉴权认证元数据的获取。在生产环境中,如果出现其中一个安全认证节点宕机不可用时,客户端的 RPC 通信层能够及时感知并从本地的 Node 列表中剔除不可用节点。


集群中有状态的租户级安全认证元数据的强一致性由 GlusterFS 分布式文件存储的同步机制来保证。安全认证服务组建高可用集群的具体设计方案图如下所示:



而 BC-MQ 中 API 计量采集服务组件的高可用性则是依靠 Keepalived 组件的冷备模式结合 GlusterFS 分布式文件存储的同步机制共同保证,从而在一定程度上解决了 API 计量采集服务的单点不可用问题。API 计量采集服务的具体高可用设计方案图如下所示:


2. GlusterFS+Keepalived 高可用方案遇到的问题

初步看上面的这种高可用技术方案挺完美的。但是经过验证和仔细推敲后就发现在生产环境中可能会存在如下几个问题:


  • 上面所述的高可用设计方案中引入了 GlusterFS 分布式文件存储系统和 Keepalived 组件,这增加了系统整体的运维复杂度,给运维人员带来很多人工介入排查和部署的工作负担;另一方面,GlusterFS 和 Keepalived 本身的可靠性、稳定性和性能指标等问题也需要软件研发人员重点关注,这增加了系统整体设计的复杂度;

  • 在实际的生产环境中,Keepalived 组件采用冷备方式作为高可用方案需要考虑主机故障宕机后切换到备机的时间成本消耗。在这段时间内,API 计量服务是短暂不可用的。因此,Keepalived 组件的主备切换会造成业务感知影响,导致一些业务的风险发生;

2.2 基于 SOFAJRaft 库的高可用设计方案

由于“GlusterFS+Keepalived”的高可用方案存在上一节阐述的两个问题,所以我们考虑是否可以采用其他的高可用方案来解决这两个问题?目标:即使生产环境出现部分节点故障后,安全认证和 API 计量组件依旧能够正常提供服务,做到业务无感知。


为了实现当分布式集群中的部分节点出现故障停服后,集群仍然能够自动选主继续正常对外提供服务,使得故障对外部业务不会产生任何影响,同时高可用方案又不能依赖外部系统,那我们也就想到了 Raft 算法。Raft 算法设计,简洁易懂,没有任何外部依赖,可以完成一个高可靠、高可用、强一致的数据复制系统,解决我们前面遇到的问题。


业界有一些 Raft 算法的实现,目前比较流行的主要有百度开源的 Braft 和蚂蚁金服开源的 SOFAJRaft。从官方 Github 上对两款开源 Raft 实现框架支持的功能和特性来看,基本相近,但 Braft 是 C/C++ 语言实现的,而 SOFAJRaft 是 JAVA 语言实现的,因此我们从技术栈、集成难易和运维成本等角度综合考虑,最终选择了 SOFAJRaft。

1. 为何技术选型 SOFAJRaft 库?

SOFAJRaft 是一个基于 Raft 一致性算法的生产级高性能 JAVA 实现,支持 MULTI-RAFT-GROUP,适用于高负载低延迟的场景。使用 SOFAJRaft,使用者可以更加专注于自己的业务领域,由 SOFAJRaft 负责处理所有与 Raft 算法相关的技术难题,并且 SOFAJRaft 比较易于使用,用户可以通过 Github 上的几个示例在很短的时间内掌握并使用它。下面先简单介绍下 SOFAJRaft 的特性和增强功能点:



其中:


  • Membership change 成员管理:集群内成员的加入和退出不会影响集群对外提供服务;

  • Transfer leader:除了集群根据算法自动选出 Leader 之外,还支持通过指令强制指定一个节点成为 Leader;

  • Fault tolerance 容错性:当集群内有节点因为各种原因不能正常运行时,不会影响整个集群的正常工作;

  • 多数派故障恢复:当集群内半数以上的节点都不能正常服务的时候,正常的做法是等待集群自动恢复,不过 SOFAJRaft 也提供了 Reset 的指令,可以让整个集群立即重建;

  • Metrics:SOFAJRaft 内置了基于 Metrics 类库的性能指标统计,具有丰富的性能统计指标,利用这些指标数据可以帮助用户更容易找出系统性能瓶颈;



为了提供支持生产环境运行的高性能,SOFAJRaft 主要做了如下几部分的性能优化,其中:


  • 并行 append log:在 SOFAJRaft 中 Leader 本地持久化 Log 和向 Follower 发送 Log 是并行的;

  • 并发复制 Leader 向所有 Follwers 发送 Log 也是完全相互独立和并发的;

  • 异步化:SOFAJRaft 中整个链路几乎没有任何阻塞,完全异步的,是一个完全的 Callback 编程模型;


因此,综上所述我们最终选用 SOFAJRaft 的理由如下:


  • SOFAJRaft 基于 JAVA 实现,能够很方便的与 BC-MQ 中安全认证服务和 API 计量服务组件进行集成;

  • SOFAJRaft 作为一个实现 Raft 协议的框架,提供了易于实现的状态机接口,只需要实现它提供的接口即可完成高可用的改造;

  • 从实际的验证结果来说,SOFAJRaft 的性能和稳定性能够完全满足甚至超过我们的预期;

  • SOFAJRaft 的功能性能够解决上面篇幅中 BC-MQ 原有“GlusterFS+Keepalived”高可用方案中所遇到的问题;

2. BC-MQ 组件集成 SOFAJRaft 的优化设计

BC-MQ 在集成 SOFAJRaft 库后在部署架构、数据持久化和高可用模式上都进行了能力升级,较好地解决了“GlusterFS+Keepalived”中的问题。


  1. 部署架构:集成 SOFAJRaft 库后,BC-MQ 的安全认证和 API 计量服务的高可用部署不再依赖“GlusterFS+Keepalived”这两个外部组件;安全认证和 API 计量服务组件按照配置文件独立部署组成相应的 RaftGroup 即可对外提供服务;

  2. 数据持久化:数据的强一致性不再依赖“GlusterFS 分布式文件存储”。通过 SOFAJRaft 的日志复制和状态机,实现集群中 Leader 节点和 Follower 节点的数据同步保证主备节点的数据一致性;

  3. 高可用模式:从原有的“KeepaLived 冷备切换”转变为“Raft 自动 Leader 选举”,发生故障后,API 计量服务仍然能够对外正常提供服务,故障转移的过程无需运维人员介入;


组件服务端的状态机接口实现


针对具体的业务应用而言(对 BC-MQ 来说,就是 API 计量统计和安全认证鉴权),状态机(StateMachine)是业务逻辑实现的主要接口,状态机运行在每个 Raft 节点上,提交的 任务 Task 如果成功,最终都会复制应用到分布式集群中的每个节点的状态机上。


在 SOFAJRaft 中提供了一个已经具备绝大部分默认实现的抽象适配类— StateMachineAdapter,直接继承它可以使得业务应用避免实现所有的接口。我们根据 BC-MQ 组件改造的需求,对部分接口做了如下的实现:


  1. void onApply(Iterator iter):


该方法是 SOFAJRaft 中最为核心的接口。在整个分布式集群环境中,待同步的数据会封装成 LogEntry 复制到其他节点。在数据同步完成之后,进程会提交到自身状态机的这个方法中执行。在 BC-MQ 中,API 计量采集服务在计量统计数据日志同步至 Follower 节点后,SOFAJRaft 在业务状态机的 onApply 方法中调用 API 计量采集服务组件的存储接口进行持久化;


  1. void onLeaderStart(long term)/void onLeaderStop(Status status):


这个两个方法是在节点通过选举成为 Leader 和失去 Leader 资格时调用,BC-MQ 的安全认证和 API 计量服务组件本身也维护了 Raft 的角色状态(这里的角色状态与 SOFAJRaft 本身的是保持一致的)。在节点的角色发生转变的时候,需要调用这个方法,将组件的角色和状态转变一致。这样实现主要是与 BC-MQ 的业务场景相关,在集群中经过重新选举后节点角色转变时,只有 API 计量组件服务的 Leader 节点才能够执行消息队列的 API 计量采集相关的定时任务;


  1. void onSnapshotSave(SnapshotWriter writer, Closure done)/boolean onSnapshotLoad(SnapshotReader reader):


这两个方法是 SOFAJRaft 快照相关的接口调用,快照本身的作用就是在有新的节点加入到 SOFAJRaft Group 时,不需要加载全部的 Log 日志数据,而只需要从最近的 index 开始加载,这可以节省从 Leader 节点同步大量日志信息所造成的网络通信开销。BC-MQ 的安全认证和 API 计量采集服务组件实现了这两个方法,用于实现快照的特性;


客户端请求重定向机制优化


SOFAJRaft 中默认只有 Leader 节点能够被客户端访问到,所有的日志提交都需要先提交到集群的 Leader 节点,然后由 Leader 节点同步到其他的 Follower 节点。BC-MQ 的安全认证服务和 API 计量服务组件通过 SOFAJRaft 改造后,在 BC-MQ 中原有的客户端 RPC 请求访问方式也需要经过一些优化设计,为了让客户端能够实时感知到分布式集群环境中当前的 Leader 节点,因此需要在客户端缓存一个集群的节点列表 NodeList 和 LeaderId。


仅仅在客户端维护一个本地缓存还不够,因为如果集群中的 Leader 节点出现了宕机的故障时,集群会发生重新选举,那么客户端缓存的 Leader 节点信息就会过期,这就需要客户端就能够感知到 Leader 节点的变化。为解决这个问题,我们采用了 RPC 请求重定向机制来保证,一旦 RPC 请求发送到了集群中的 Follower 节点,那么 Follower 会将该请求重定向到 Leader。以下为 BC-MQ 客户端通信重定向机制优化设计图:


BC-MQ 的高可用与节点管理性验证

下面展示的是 BC-MQ 的安全认证服务和 API 计量服务组件的部分测试用例,从用例的实际执行情况来看,与我们的预期结果完全一致可以满足生产环境高可用的业务场景。


序号具体业务场景预期结果实际结果
1安全认证组件 3 节点部署,Kill 掉其中 1 个节点,客户端持续发布/订阅带鉴权的消息安全认证组件 Leader 角色转换,客户端发布/订阅带鉴权消息无任何影响与预期一致
2安全认证的 5 节点部署,Kill 掉其中 2 个节点,客户端持续发布/订阅带鉴权的消息安全认证组件 Leader 角色转换,客户端发布/订阅带鉴权消息无任何影响与预期一致
3API 计量组件 3 节点部署,Kill 掉其 1 个节点,客户端持续;发布/订阅带鉴权的消息API 计量组件 Leader 角色转换,输出的 API 计量文件正确与预期一致
4API 计量组件 5 节点部署,Kill 掉其 2 个节点,客户端持续发布/订阅带鉴权的消息API 计量组件 Leader 角色转换,输出的 API 计量文件正确与预期一致
5在集群中模拟出现网络分区(对称/非对称)的场景,安全认证服务集群是否会出现脑裂现象,鉴权认证数据是否正确网络分区(对称/非对称)场景下,集群不会出现脑裂,并且鉴权数据是正确的与预期一致
6在集群中模拟出现网络分区(对称/非对称)的场景,API 计量服务集群是否会出现脑裂现象,API 计量数据是否正确网络分区(对称/非对称)场景下,集群不会出现脑裂,并且 API 计量数据是正确的与预期一致
7在 3 节点组成的安全认证服务集群的负载工作的场景下,向该 RaftGroup 添加 1/2 节点,客户端持续发布/订阅带鉴权的消息客户端发布/订阅带鉴权消息无任何影响与预期一致
8在 5 节点组成的安全认证服务集群的负载工作的场景下,移除该 RaftGroup 中的 1/2 节点,客户端持续发布/订阅带鉴权的消息客户端发布/订阅带鉴权消息无任何影响与预期一致

总结

本文主要介绍了中国移动苏州研发中心自主研发的 BC-MQ 产品中两个重要组件—安全认证和 API 计量服务是如何通过集成开源的 SOFAJRaft 库解决原来“GlusterFS+Keepalived”高可用方案中遇到的问题,以实现大规模消息队列云服务集群的高可用部署优化方案。由于文章篇幅的原因,本文没有对 BC-MQ 本身多项重要的特性进行详细介绍,作者将在后续的文章中继续进行阐述。同时,限于笔者的才疏学浅,对本文内容可能还有理解不到位的地方,如有阐述不合理之处还望留言一起探讨。

参考文献

[1] Diego Ongaro and John Ousterhout. Raft Paper. 2013:https://ramcloud.stanford.edu/raft.pdf


[2] 详解蚂蚁金服 SOFAJRaft | 生产级高性能 Java 实现


作者介绍


胡宗棠,中国移动苏州研发中心云计算中间件团队负责人,Apache RocketMQ Committer,Linux OpenMessaging Advisory Borad Member,SOFAJRaft Contributor,熟悉分布式消息中间件的设计原理、架构以及各种应用场景。


本文转载自公众号金融级分布式架构(ID:Antfin_SOFA)


原文链接


https://mp.weixin.qq.com/s/8Ul8LHrtLh76GYDFsekpPw


2019-08-22 08:006508

评论

发布
暂无评论
发现更多内容

玩转云原生流量管理——Flomesh

Flomesh

云原生 流量控制 #开源

大量模块壳工程本地如何快速编译?优酷 iOS 工程插件化实践

阿里巴巴终端技术

ios App 编译 架构设计

NFT链游系统开发|DeFi+NFT技术搭建

薇電13242772558

NFT 链游

去中心化DEFI质押流动性挖矿项目开发案例(逻辑分析)

开发微hkkf5566

C++ Workflow异步调度框架 - 基本介绍篇

1412

c++ 开源 workflow 异步调度 网络框架

一对一直播源码部署,是系统上线运行的开始

开源直播系统源码

软件开发 一对一直播 一对一直播源码 直播系统源码

集成底座流程测试总结

agileai

测试流程 集成底座 企业服务总线 主数据平台 统一身份管理平台

基于任务调度的企业级分布式批处理方案

阿里巴巴云原生

阿里云 分布式 云原生 SchedulerX

融云 IMKit Web 端上线,带你感受开发效率的参差

融云 RongCloud

Linux系统环境搭建

开发微hkkf5566

印尼Widya Robotics携手华为云,让建筑工地安全看得见

华为云开发者联盟

人工智能 安全 华为云 modelarts 机器视觉

C++ Workflow异步调度框架 - 架构设计篇

1412

c++ 开源 workflow 异步调度 网络框架

InfoQ 极客传媒 15 周年庆征文|实战 MySQL 高可用架构

悟空聊架构

架构 运维 悟空聊架构 热门活动 InfoQ极客传媒15周年庆

物联网低代码平台权限管理,保障平台安全!

AIRIOT

物联网 低代码开发 低代码开发平台 快速开发平台

模块三

Geek_2ce415

去中心化NFT交易平台开发

开发微hkkf5566

告警消息何去何从?在飞书中飞起来

Rancher

Kubernetes k8s rancher

一年一度 OceanBase 技术征文大赛全面开启! 入门实战,等您来写

OceanBase 数据库

数据库

Karmada v1.2发布:开启全文本搜索新纪元

华为云开发者联盟

云计算 调度器 Karmada 全文本搜索 资源解释器

企业数字化转型加速,选对在线协作工具事半功倍

小炮

实时监控,智能预警,疾控中心的战疫“速度”

博睿数据

智能运维 博睿数据

国内首个:ICPR2022多模态字幕识别比赛日前结束

科技热闻

【Spring 学习笔记(七)】Spring 管理第三方Bean之管理Druid数据源

倔强的牛角

Java spring Java EE 6月月更

数据湖基本架构

五分钟学大数据

数据湖 6月月更

InfoQ 极客传媒 15 周年庆征文|PassJava网站生产级事故复盘

悟空聊架构

运维 前端 passjava 悟空聊架构 InfoQ极客传媒15周年庆

BI 如何让SaaS产品具有 “安全感”和“敏锐感”(上)

葡萄城技术团队

SaaS BI 数据可视化

企业为什么要部署专属的IM即时通讯软件?

WorkPlus

Substrate技术及生态5月大事记 | Square One计划启动,波卡上线XCM!

One Block Community

区块链 技术 波卡生态

【高阶知识】用户态协议栈之Epoll实现原理

C++后台开发

后端开发 epoll Linux服务器开发 C++后台开发 户态协议栈

聚焦行业,赋能客户 | 博云容器云产品族五大行业解决方案发布

BoCloud博云

云原生 容器云

什么是算子下盘

华为云开发者联盟

数据库 集群 算子

中国移动苏州研发中心消息队列高可用设计之谈_技术管理_王少杰_InfoQ精选文章