9 月 13 日,2025 Inclusion・外滩大会「开源嘉年华」正在限量报名中! 了解详情
写点什么

分布式存储 Ceph RBD-Mirror 灾备实践

  • 2018-12-14
  • 本文字数:8992 字

    阅读完需:约 30 分钟

分布式存储Ceph RBD-Mirror 灾备实践

1.说明介绍

继上次分享的《分布式存储系统 Ceph 架构及使用场景解析》 和 《分布式存储Ceph之PG状态详解》 ,这次分享《分布式存储 Ceph 块存储灾备方案》。

1.1 基本原理


RBD Mirror 原理其实和 MySQL 的主从同步原理非常类似,前者基于 journaling,后者基于 binlog,简单地说就是利用日志进行回放(replay):通过在存储系统中增加 Mirror 组件,采用异步复制的方式,实现异地备份。(此处的 journal 是指 Ceph RBD 的 journal,而不是 OSD 的 journal)


该能力利用了 RBD image 的日志特性,以确保集群间的副本崩溃一致性。镜像功能需要在同伴集群( peer clusters )中的每一个对应的 pool 上进行配置,可设定自动备份某个存储池内的所有 images 或仅备份 images 的一个特定子集。 rbd-mirror 守护进程负责从远端集群拉取 image 的更新,并写入本地集群的对应 image 中。


当 RBD Journal 功能打开后,所有的数据更新请求会先写入 RBD Journal,然后后台线程再把数据从 Journal 区域刷新到对应的 image 区域。RBD journal 提供了比较完整的日志记录、读取、变更通知以及日志回收和空间释放等功能,可以认为是一个分布式的日志系统。

1.2 工作流程


1、当接收到一个写入请求后,I/O 会先写入主集群的 Image Journal


2、Journal 写入成功后,通知客户端


3、客户端得到响应后,开始写入 image


3、备份集群的 mirror 进程发现主集群的 Journal 有更新后,从主集群的 Journal 读取数据,写入备份集群(和上面序号一样,是因为这两个过程同时发生)


4、备份集群写入成功后,会更新主集群 Journal 中的元数据,表示该 I/O 的 Journal 已经同步完成


5、主集群会定期检查,删除已经写入备份集群的 Journal 数据。


以上就是一个 rbd-mirror 工作周期内的流程,在现有的 Jewel 版本中 30s 为一次工作周期,暂时不能改变这个周期时间。

1.3 优点

1、当副本在异地的情况下,减少了单个集群不同节点间的数据写入延时;


2、减少本地集群或异地集群由于意外断电导致的数据丢失。

1.4 单向备份与双向备份

双向备份:两个集群之间互相同步,两个集群都要运行 rbd-mirror 进程。


单向备份:分为主集群和从集群,只在从集群运行 rbd-mirror 进程,主集群的修改会自动同步到从集群。

1.5 安装须知

  • RBD 镜像功能需要 Ceph Jewel 或更新的发行版本。

  • 目前 Jewel 版本只支持一对一,不支持一对多。

  • 两个集群 (local 和 remote) 需要能够互通。

  • RBD 需要开启 journal 特性, 启动后会记录 image 的事件。

2. mirroring 模式

mirroring 是基于存储池进行的 peer,ceph 支持两种模式的镜像,根据镜像来划分有:


存储池模式


  • 一个存储池内的所有镜像都会进行备份


镜像模式


  • 只有指定的镜像才会进行备份


2.1 存储池模式

2.1.1 创建存储池

创建一个用于测试的存储池:


#local集群ceph osd pool create test_pool 100 100 replicated --cluster=localpool 'test_pool' created #remote集群ceph osd pool create test_pool 100 100 replicated --cluster=remotepool 'test_pool' created
复制代码

2.1.2 启用存储池模式

开启存储池 rbdmirror 的镜像功能:


#local集群rbd  mirror pool enable test_pool pool --cluster=local #remote集群rbd mirror pool enable test_pool pool --cluster=remote
复制代码

2.1.3 创建 RBD

主集群创建一个测试用的 RBD:


rbd create test_pool/test_image --size=1024 --cluster=local
复制代码

2.1.4 主集群开启 jounaling 特性

启动后会才会记录 image 的事件,才可以被 rbd-mirror 检测到并同步到从集群:


rbd feature enable test_pool/test_image exclusive-lockrbd feature enable test_pool/test_image journaling
复制代码

2.1.5. 增加同伴集群

把 local 和 remote 设为同伴,这个是为了让 rbd-mirror 进程找到它 peer 的集群的存储池:


rbd mirror pool peer add test_pool client.admin@remote --cluster=local rbd mirror pool peer add test_pool client.admin@local --cluster=remote #如果需要删除peer 语法:rbd mirror pool peer remove <pool-name> <peer-uuid>
复制代码


查看 peer 的情况:


rbd mirror pool info --pool=test_pool --cluster=localMode: poolPeers:UUID NAME CLIENTf0929e85-259d-450b-917e-9eb231b7e43b remote client.admin  rbd mirror pool info --pool=test_pool --cluster=remoteMode: poolPeers:UUID NAME CLIENT5851ba6a-e383-4ef0-9b9d-5ae34c9518a6 local client.admin
复制代码

2.1.6 开启 rbd-mirror 的同步进程

a. 先用调试模式启动进程看看情况,在 remote 的机器上执行


#remote:rbd-mirror -d --setuser ceph --setgroup ceph --cluster remote -i admin
复制代码


b. 如果确认没问题就用服务来控制启动


#remotevim /usr/lib/systemd/system/ceph-rbd-mirror@.service #修改Environment=CLUSTER=remote
复制代码


c. 在 remote 机器上启动


systemctl start ceph-rbd-mirror@adminps -ef|grep rbdceph 4325 1 1 17:59 ? 00:00:00 /usr/bin/rbd-mirror -f --cluster remote --id admin --setuser ceph --setgroup ceph
复制代码

2.1.7 检查同步结果

a. 查询 local 集群镜像的同步的状态


#localrbd mirror image status test_pool/test_image --cluster remotetest_image: global_id: dabdbbed-7c06-4e1d-b860-8dd104509565 state: up+replaying description: replaying, master_position=[object_number=2, tag_tid=2, entry_tid=3974], mirror_position=[object_number=3, tag_tid=2, entry_tid=2583], entries_behind_master=1391 last_update: 2017-01-22 17:54:22
复制代码


b. 检查数据是否同步到 remote 集群


#remoterbd info test_pool/test_image
复制代码

2.2 镜像模式

2.2.1 主集群开启 jounaling 特性

启动后会才会记录 image 的事件,才可以被 rbd-mirror 检测到并同步到从集群


#localrbd feature enable test_pool/test_image exclusive-lockrbd feature enable test_pool/test_image journaling
复制代码

2.2.2 开启存储池的 mirror 的模式

#local:rbd mirror pool enable test_pool image #remote:ceph osd pool create test_pool 100 100 replicated --cluster=remotepool 'rbdmirror' created rbd mirror pool enable test_pool image
复制代码

2.2.3 开启 image 的 mirror

#localrbd mirror image enable test_pool/test_imageMirroring enabled rbd info test_pool/test_image --cluster=localrbd image 'test_image': size 10240 MB in 2560 objects order 22 (4096 kB objects) block_name_prefix: rbd_data.105774b0dc51 format: 2 features: layering, exclusive-lock, journaling flags: create_timestamp: Wed Dec 13 16:46:08 2017 journal: 105774b0dc51 mirroring state: enabled mirroring global id: 013f9e35-9d08-40fc-bf24-1e11a07a0910 mirroring primary: true
复制代码

2.2.4 增加同伴集群

把 local 和 remote 设为同伴,这个是为了让 rbd-mirror 进程找到它 peer 的集群的存储池:


rbd mirror pool peer add test_pool client.admin@remote --cluster=local rbd mirror pool peer add test_pool client.admin@local --cluster=remote #如果需要删除peer 语法:rbd mirror pool peer remove <pool-name> <peer-uuid>
复制代码


查看 peer 的情况:


rbd mirror pool info --pool=test_pool --cluster=localMode: poolPeers:UUID NAME CLIENTf0929e85-259d-450b-917e-9eb231b7e43b remote client.admin  rbd mirror pool info --pool=test_pool --cluster=remoteMode: poolPeers:UUID NAME CLIENT5851ba6a-e383-4ef0-9b9d-5ae34c9518a6 local client.admin
复制代码

2.2.5 开启 rbd-mirror 的同步进程

a. 先用调试模式启动进程看看情况,在 remote 的机器上执行


#remote:rbd-mirror -d --setuser ceph --setgroup ceph --cluster remote -i admin
复制代码


b. 如果确认没问题就用服务来控制启动


#remotevim /usr/lib/systemd/system/ceph-rbd-mirror@.service #修改Environment=CLUSTER=remote
复制代码


c. 在 remote 机器上启动


systemctl start ceph-rbd-mirror@adminps -ef|grep rbdceph 4325 1 1 17:59 ? 00:00:00 /usr/bin/rbd-mirror -f --cluster remote --id admin --setuser ceph --setgroup ceph
复制代码

2.2.6 检查同步结果

a. 查询 local 集群镜像的同步的状态


#localrbd mirror image status test_pool/test_image --cluster remotetest_image: global_id: dabdbbed-7c06-4e1d-b860-8dd104509565 state: up+replaying description: replaying, master_position=[object_number=2, tag_tid=2, entry_tid=3974], mirror_position=[object_number=3, tag_tid=2, entry_tid=2583], entries_behind_master=1391 last_update: 2017-01-22 17:54:22
复制代码


b. 检查数据是否同步到 remote 集群


#remoterbd info test_pool/test_image
复制代码

3. 测试对比报告

3.1 单主集群性能

3.1.1 rbd 性能测试

  1. 顺序读写

  2. //block size 是 4M,30 个线程并发

  3. 测试结果:30 线程并发,带宽:935 MB/s 平均 IOPS:228.33


rbd bench-write test_image  --io-threads 30  --pool=test_pool   --io-pattern seq --io-total 17199730000 --io-size 4096000elapsed:    18  ops:     4200  ops/sec:   228.33  bytes/sec: 935243763.72
复制代码


  1. 随机读写

  2. //block size 是 4M,30 个线程并发

  3. 测试结果:30 线程并发,带宽:936 MB/s 平均 IOPS: 228.57


rbd bench-write test_image  --io-threads 30  --pool=test_pool   --io-pattern rand --io-total 17199730000 --io-size 4096000elapsed:    18  ops:     4200  ops/sec:   228.57  bytes/sec: 936229596.77
复制代码

3.2 主备集群性能

3.2.1 rbd 性能测试

  1. 顺序读写

  2. //block size 是 4M,30 个线程并发

  3. 测试结果:30 线程并发,带宽:182 MB/s 平均 IOPS:44.53


rbd bench-write test_image  --io-threads 30  --pool=test_pool   --io-pattern seq --io-total 17199730000 --io-size 4096000elapsed:    94  ops:     4200  ops/sec:    44.53  bytes/sec: 182382108.66
复制代码


  1. 随机读写

  2. //block size 是 4M,30 个线程并发

  3. 测试结果:30 线程并发,带宽:149 MB/s 平均 IOPS: 36.50


rbd bench-write test_image  --io-threads 30  --pool=test_pool   --io-pattern rand --io-total 17199730000 --io-size 4096000elapsed:   115  ops:     4200  ops/sec:    36.50  bytes/sec: 149499469.69
复制代码

3.3 测试结果

通过测试结果可以看出启用 rbd-mirror 会导致主集群性能下降 5 倍多。


工具集群模式块大小并发数顺序读写随机读写
rbd bench-write单主集群4M30带宽:935 MB/s
平均IOPS:228.33
带宽:936 MB/s
平均IOPS: 228.57
rbd bench-write主备集群4M30带宽:182 MB/s
平均IOPS:44.53
带宽:149 MB/s
平均IOPS: 36.50

4. 分析原因

4.1 journal 流程

  1. 当 RBD Journal 功能打开后,所有的数据更新请求会先写入 Image Journal

  2. 写入成功后,通知客户端

  3. 客户端得到响应后,开始写 image

  4. 备份集群的 mirror 进程发现主集群的 Journal 有更新后,从主集群的 Journal 读取数据,写入备份集群

  5. 备份集群写入成功后,会更新主集群 Journal 中的元数据,表示该 I/O 的 Journal 已经同步完成

4.2 优化

  • Use a small SSD/NVMe-backed pool for journals

  • ‘rbd journal pool =’

  • Batch multiple events into a single journal append

  • ‘rbd journal object flush age =’

  • Increase journal data width to match queue depth

  • ‘rbd journal splay width =’

  • Future work: potentially parallelize journal append + image write between write barriers


1. rbd journal pool 功能没实现sudo ceph daemon osd.0 config set rbd_journal_pool = test_pool3{    "error": "error setting 'rbd_journal_pool' to '= test_pool3': (38) Function not implemented"} 2. 调整参数从10-100,效果不明显rbd_journal_object_flush_age = 100rbd_journal_splay_width = 100
复制代码

4.3 官方待改进

4.3.1 引入一致性组

  1. journaling 可以看做是另一个 rbd 的 image(一些 rados 对象),一般情况下,先写日志,然后返回客户端,然后被写入底层的 rbd 的 image,出于性能考虑,这个 journal 可以跟它的镜像不在一个存储池当中。

  2. 目前是一个 image 一个 journal,最近应该会沿用这个策略,直到 ceph 引入一致性组。关于一致性组的概念就是一组卷,然后用的是一个 RBD image。可以在所有的组中执行快照操作,有了一致性的保证,所有的卷就都在一致的状态。


3.当一致性组实现的时候,我们就可以用一个 journal 来管理所有的 RBD 的镜像,可以给一个已经存在 image 开启 journal,ceph 将会将你的镜像做一个快照,然后对快照做一个复制,然后开启 journal,这都是后台执行的一个任务可以启用和关闭单个镜像或者存储池的 mirror 功能,


如果启用了 journal 功能,那么每个镜像将会被复制可以使用 rbd mirror pool enable 启用它。

4.3.2 并行写

  1. Future work: potentially parallelize journal append + image write between write barriers

  2. 参考官方文档如下:

  3. 官方类似问题:https://www.spinics.net/lists/ceph-users/msg31676.html

4.4 结论

由于核心流程就是先写日志,然后写 image 需要写两份的逻辑,所以导致性能就会有损失。


根据官方的参数优化也没有明显的效果,建议等待官方更新 features。


作者介绍:李航, 多年的底层开发经验,在高性能 nginx 开发和分布式缓存 redis cluster 有着丰富的经验,目前从事分布式存储 Ceph 工作。先后在 58 同城、汽车之家、优酷土豆集团工作。


目前供职于滴滴基础平台运维部 - 技术专家岗位,主要负责分布式 Ceph 系统。个人主要关注的技术领域:高性能 Nginx 开发、分布式缓存、分布式存储。


2018-12-14 15:473105

评论 1 条评论

发布
暂无评论
发现更多内容

从零到一,了解京东商品详情API返回值

技术冰糖葫芦

API Explorer API 测试 pinduoduo API

openGauss- X-Tuner: 参数调优与诊断

Gauss松鼠会

数据库 opengauss 数据库·

DDD-14-工厂设计

南山

领域驱动设计 DDD

活动回顾丨云原生开源开发者沙龙上海站回放 & PPT 下载

阿里巴巴云原生

阿里云 开源 云原生

mac强大的安卓文件传输工具:Android File Transfer for mac 版

你的猪会飞吗

Mac软件 Android File Transfer mac破解软件下载

Steam全球服务器遭遇大规模DDoS攻击,崩溃细节曝光!!!

网络安全服务

服务器 DDoS steam DDoS 攻击 黑神话悟空

DDD-8-实体设计

南山

可以在mac电脑玩Red Alert红色警戒:红警 for Mac合集

你的猪会飞吗

红色警戒 mac软件下载 Mac游戏下载

DDD-9-聚合划分

南山

领域驱动设计 DDD 聚合根

如何使用 NFTScan NFT API 在 Gravity 网络上开发 Web3 应用

NFT Research

NFT\ NFTScan API】

超级自动化:流程资产开启企业数字化转型新纪元

望繁信科技

数字化转型 流程挖掘 流程资产 流程智能

ChatGPT访问难?ChatGLM+花生壳打造可远程访问的平替方案

贝锐

内网穿透 ChatGPT AIGCC

DDD-6-限界上下文

南山

领域驱动设计 DDD 微服务划分 限界上下文

日常工作中需要避免的9个React坏习惯

不在线第一只蜗牛

JavaScript 前端 React

DDD-7-子域划分

南山

领域驱动设计 DDD 子域

DDD-17-CQRS

南山

领域驱动设计 DDD CQRS

打造敏捷开发环境:JNPF低代码平台的实践与探索

不在线第一只蜗牛

敏捷开发 低代码

京东商品详情数据接口解析(实时数据含测试及示例)

tbapi

京东API接口 京东商品详情接口 京东商品数据采集

DDD-10-值对象设计

南山

领域驱动设计 DDD 值对象

DDD-15-数据库设计

南山

领域驱动设计 DDD 数据库设计

豆包大模型全面落地行业,助力企业打造专属智能体

极客天地

加密游戏的未来:Telegram机器人如何彻底改变加密挖矿

区块链软件开发推广运营

交易所开发 dapp开发 链游开发 NFT开发 公链开发

如何快速分析新代币:15 分钟内做出明智的交易决策

区块链软件开发推广运营

交易所开发 dapp开发 链游开发 NFT开发 公链开发

从构思到上线:深入解析海外1v1视频聊天应用核心功能与技术开发指南

山东布谷科技胡月

一对一视频聊天系统 海外直播 国际版社交APP 社交APP源码 聊天APP源码

云端集中管控边缘服务:利用 EMQX ECP 在 K8s 上快速部署 NeuronEX

EMQ映云科技

NeuronEX EMQX ECP eqmx

DDD-11-领域服务

南山

领域驱动设计 DDD 领域服务

DDD-12-领域事件

南山

领域驱动设计 DDD 领域事件

DDD-13-仓储设计

南山

领域驱动设计 DDD 仓储 资源库

分布式存储Ceph RBD-Mirror 灾备实践_大数据_李航_InfoQ精选文章