返回介绍

BR 备份与恢复场景示例

发布于 2020-10-26 07:01:21 字数 14355 浏览 1085 评论 0 收藏 0

Backup & Restore(下文简称 BR)一款分布式的快速备份和恢复工具。本文展示了目标读者

读者需要对 TiDB 和 TiKV 有一定的了解。在阅读本文前,推荐先阅读使用 BR 进行备份与恢复

环境准备

本部分介绍推荐的 TiDB 的部署方式、示例中的集群版本、TiKV 集群硬件信息和集群配置。读者可根据自己的硬件和配置来预估备份恢复的性能。

部署方式

推荐使用 TiUP 部署 TiDB 集群,再下载 TiDB Toolkit 获取 BR 应用。

集群版本

  • TiDB: v4.0.2
  • TiKV: v4.0.2
  • PD: v4.0.2
  • BR: v4.0.2

注意:

v4.0.2 为编写本文档时的最新版本。推荐读者使用最新版本 TiDB/TiKV/PD/BR,同时需要确保 BR 版本和 TiDB 相同

TiKV 集群硬件信息

  • 操作系统:CentOS Linux release 7.6.1810 (Core)
  • CPU:16-Core Common KVM processor
  • RAM:32GB
  • 硬盘:500G SSD * 2
  • 网卡:10000MB/s

配置

BR 可以直接将命令下发到 TiKV 集群来执行备份和恢复,不依赖 TiDB server 组件,因此无需对 TiDB server 进行配置。

  • TiKV: 默认配置
  • PD : 默认配置

使用场景

本文描述以下四种使用场景:

  • 备份前的准备工作

    br backup 命令的详细使用方法请参考 BR 命令行描述

    1. 运行 br backup 命令前,查询 TiDB 集群的 tikv_gc_life_time 配置项的值,并使用 MySQL 客户端将该项调整至合适的值,确保备份期间不会发生 Garbage Collection (GC)。

      SELECT * FROM mysql.tidb WHERE VARIABLE_NAME = 'tikv_gc_life_time';
      UPDATE mysql.tidb SET VARIABLE_VALUE = '720h' WHERE VARIABLE_NAME = 'tikv_gc_life_time';
    2. 在备份完成后,将该参数调回原来的值。

      UPDATE mysql.tidb SET VARIABLE_VALUE = '10m' WHERE VARIABLE_NAME = 'tikv_gc_life_time';

    恢复前的准备工作

    br restore 命令的详细使用方法请参考 BR 命令行描述

    注意:

    运行 br restore 前检查新集群确保没有同名的表。

    将单表数据备份到网络盘(推荐)

    使用 br backup 命令,将单表数据 --db batchmark --table order_line 备份到指定的网络盘路径 local:///br_data 下。

    前置要求

    • 配置一台高性能 SSD 硬盘主机为 NFS server 存储数据。其他所有 BR 节点和 TiKV 节点为 NFS client,挂载相同的路径(例如 /br_data)到 NFS server 上以访问 NFS server。
    • NFS server 和 NFS client 间的数据传输速率至少要达到备份集群的 TiKV 实例数 * 150MB/s。否则网络 I/O 有可能成为性能瓶颈。

    部署拓扑

    部署拓扑如下图所示:

    img

    运行备份

    备份操作前,在 TiDB 中使用 admin checksum table order_line 命令获得备份目标表 --db batchmark --table order_line 的统计信息。统计信息示例如下:

    img

    运行 BR 备份命令:

    bin/br backup table \
        --db batchmark \
        --table order_line \
        -s local:///br_data \
        --pd ${PD_ADDR}:2379 \
        --log-file backup-nfs.log

    备份过程中的运行指标

    在 BR 备份过程中,需关注以下监控面版中的运行指标来了解备份的状态。

    Backup CPU Utilization:参与备份的 TiKV 节点(例如 backup-worker 和 backup-endpoint)的 CPU 使用率。

    img

    IO Utilization:参与备份的 TiKV 节点的 I/O 使用率。

    img

    BackupSST Generation Throughput:参与备份的 TiKV 节点生成 backupSST 文件的吞吐。正常时单个 TiKV 节点的吞吐在 150MB/s 左右。

    img

    One Backup Range Duration:备份一个 range 的操作耗时,包括扫描耗时 (scan KV) 和保存耗时(保存为 backupSST 文件)。

    img

    One Backup Subtask Duration: 一次备份任务会被拆分成多个子任务。该监控项显示子任务的耗时。

    注意:

    • 虽然本次任务是备份单表,但因为表中有 3 个索引,所以正常会拆分成 4 个子任务。
    • 下图中有 13 个点,说明有 9 次 (13-4) 重试。备份过程中可能发生 Region 调度行为,少量重试是正常的。

    img

    Backup Errors:备份过程中的错误。正常时无错误。即使出现少量错误,备份操作也有重试机制,可能会导致备份时间增加,但不会影响备份的正确性。

    img

    Checksum Request Duration:对备份集群执行 admin checksum 的耗时统计。

    img

    结果解读

    使用 BR 前已设置日志的存放路径。从路径下存放的日志中可以获取此次备份的相关统计信息。在日志中搜关键字 "summary",可以看到以下信息:

    ["Table backup summary:
        total backup ranges: 4,
        total success: 4,
        total failed: 0,
        total take(s): 986.43,
        total kv: 5659888624,
        total size(MB): 353227.18,
        avg speed(MB/s): 358.09"]
        ["backup total regions"=7196]
        ["backup checksum"=6m28.291772955s]
        ["backup fast checksum"=24.950298ms]

    以上日志信息中包含以下内容:

    • 备份耗时:total take(s): 986.43
    • 数据大小:total size(MB): 353227.18
    • 备份吞吐:avg speed(MB/s): 358.09
    • 校验耗时:take=6m28.29s

    通过以上数据可以计算得到单个 TiKV 实例的吞吐为:avg speed(MB/s)/tikv_count = 89

    性能调优

    如果 TiKV 的资源使用没有出现明显的瓶颈(例如从网络磁盘恢复备份数据(推荐)

    使用 br restore 命令,将一份完整的备份数据恢复到一个离线集群。暂不支持恢复到在线集群。

    前置要求

    部署拓扑

    部署拓扑如下图所示:

    img

    运行恢复

    运行 br restore 命令:

    bin/br restore table --db batchmark --table order_line -s local:///br_data --pd 172.16.5.198:2379 --log-file restore-nfs.log

    恢复过程中的运行指标

    在 BR 恢复过程中,需关注以下监控面版中的运行指标来了解恢复的状态。

    CPU Utilization:参与恢复的 TiKV 节点 CPU 使用率。

    img

    IO Utilization:参与恢复的 TiKV 节点的 I/O 使用率。

    img

    Region 分布:Region 分布越均匀,说明恢复资源利用越充分。

    img

    Process SST Duration:处理 SST 文件的延迟。恢复一张表时时,如果 tableID 发生了变化,需要对 tableID 进行 rewrite,否则会进行 rename。通常 rewrite 延迟要高于 rename 的延迟。

    img

    DownLoad SST Throughput:从 External Storage 下载 SST 文件的吞吐。

    img

    Restore Errors:恢复过程中的错误。

    img

    Checksum Request duration:对恢复集群执行 admin checksum 的耗时统计,会比备份时的 checksum 延迟高。

    img

    结果解读

    使用 BR 前已设置日志的存放路径。从路径下存放的日志中可以获取此次恢复的相关统计信息。在日志中搜关键字 "summary",可以看到以下信息:

    ["Table Restore summary:
        total restore tables: 1,
        total success: 1,
        total failed: 0,
        total take(s): 961.37,
        total kv: 5659888624,
        total size(MB): 353227.18,
        avg speed(MB/s): 367.42"]
        ["restore files"=9263]
        ["restore ranges"=6888]
        ["split region"=49.049182743s]
        ["restore checksum"=6m34.879439498s]

    以上日志信息中包含以下内容:

    • 恢复耗时:total take(s):961.37
    • 数据大小:total size(MB): 353227.18
    • 恢复吞吐:avg speed(MB/s): 367.42
    • Region Split 耗时:take=49.049182743s
    • 校验耗时:take=6m34.879439498s

    根据上表数据可以计算得到:

    • 单个 TiKV 吞吐:avg speed(MB/s)/tikv_count = 91.8
    • 单个 TiKV 平均恢复速度:total size(MB)/(split time + restore time)/tikv_count = 87.4

    性能调优

    如果 TiKV 资源使用没有明显的瓶颈,可以尝试调大 --concurrency 参数(默认为 128),示例如下:

    bin/br restore table --db batchmark --table order_line -s local:///br_data/ --pd 172.16.5.198:2379 --log-file restore-concurrency.log --concurrency 1024

    性能调优后的结果如下表所示(保持数据大小不变):

    • 恢复耗时:total take(s)961.37 减少到 443.49
    • 恢复吞吐:avg speed(MB/s)367.42 提升到 796.47
    • 单个 TiKV 实例的吞吐:avg speed(MB/s)/tikv_count91.8 提升到 199.1
    • 单个 TiKV 实例的平均恢复速度:total size(MB)/(split time + restore time)/tikv_count87.4 提升到 162.3

    将单表数据备份到本地磁盘

    使用 br backup 命令,将单表数据 --db batchmark --table order_line 备份到指定的本地磁盘路径 local:///home/tidb/backup_local 下。

    前置要求

    • 各个 TiKV 节点有单独的磁盘用来存放 backupSST 数据。
    • backup_endpoint 节点有单独的磁盘用来存放备份的 backupmeta 文件。
    • TiKV 和 backup_endpoint 节点需要有相同的备份目录,例如 /home/tidb/backup_local

    部署拓扑

    img

    运行备份

    备份前在 TiDB 里通过 admin checksum table order_line 获得备份的目标表 --db batchmark --table order_line 的统计信息。统计信息示例如下:

    img

    运行 br backup 命令:

    bin/br backup table \
        --db batchmark \
        --table order_line \
        -s local:///home/tidb/backup_local/ \
        --pd ${PD_ADDR}:2379 \
        --log-file backup_local.log

    运行备份时,参考结果解读

    使用 BR 前已设置日志的存放路径。从该路径下存放的日志获取此次备份的相关统计信息。在日志中搜关键字 "summary",可以看到以下信息:

    ["Table backup summary: total backup ranges: 4, total success: 4, total failed: 0, total take(s): 551.31, total kv: 5659888624, total size(MB): 353227.18, avg speed(MB/s): 640.71"] ["backup total regions"=6795] ["backup checksum"=6m33.962719217s] ["backup fast checksum"=22.995552ms]

    以上日志信息中包含以下内容:

    • 备份耗时:total take(s): 551.31
    • 数据大小:total size(MB): 353227.18
    • 备份吞吐:avg speed(MB/s): 640.71
    • 校验耗时:take=6m33.962719217s

    根据上表数据可以计算得到单个 TiKV 实例的吞吐:avg speed(MB/s)/tikv_count = 160

    从本地磁盘恢复备份数据

    使用 br restore 命令,将一份完整的备份数据恢复到一个离线集群。暂不支持恢复到在线集群。

    前置要求

    • 集群中没有与备份数据相同的库表。目前 BR 不支持 table route。
    • 集群中各个 TiKV 节点有单独的磁盘用来存放要恢复的 backupSST 数据。
    • restore_endpoint 节点有单独的磁盘用来存放要恢复的 backupmeta 文件。
    • 集群中 TiKV 和 restore_endpoint 节点需要有相同的备份目录,例如 /home/tidb/backup_local/

    如果备份数据存放在本地磁盘,那么需要执行以下的步骤:

    1. 汇总所有 backupSST 文件到一个统一的目录下。
    2. 将汇总后的 backupSST 文件到复制到集群的所有 TiKV 节点下。
    3. backupmeta 文件复制到到 restore endpoint 节点下。

    部署拓扑

    img

    运行恢复

    运行 br restore 命令:

    bin/br restore table --db batchmark --table order_line -s local:///home/tidb/backup_local/ --pd 172.16.5.198:2379 --log-file restore_local.log

    运行恢复时,参考结果解读

    使用 BR 前已设置日志的存放路径。从该日志中可以获取此次恢复的相关统计信息。在日志中搜关键字 "summary",可以看到以下信息:

    ["Table Restore summary: total restore tables: 1, total success: 1, total failed: 0, total take(s): 908.42, total kv: 5659888624, total size(MB): 353227.18, avg speed(MB/s): 388.84"] ["restore files"=9263] ["restore ranges"=6888] ["split region"=58.7885518s] ["restore checksum"=6m19.349067937s]

    以上日志信息中包含以下内容:

    • 恢复耗时:total take(s): 908.42
    • 数据大小:total size(MB): 353227.18
    • 恢复吞吐:avg speed(MB/s): 388.84
    • Region Split 耗时:take=58.7885518s
    • 校验耗时:take=6m19.349067937s

    根据上表数据可以计算得到:

    • 单个 TiKV 实例的吞吐:avg speed(MB/s)/tikv_count = 97.2
    • 单个 TiKV 实例的平均恢复速度:total size(MB)/(split time + restore time)/tikv_count = 92.4

    异常处理

    本部分介绍如何处理备份过程中出现的常见错误。

    备份日志中出现 key locked Error

    日志中的错误消息:log - ["backup occur kv error"][error="{\"KvError\":{\"locked\":

    如果在备份过程中遇到 key 被锁住,目前 BR 会尝试清锁。少量报错不会影响备份的正确性。

    备份失败

    日志中的错误消息:log - Error: msg:"Io(Custom { kind: AlreadyExists, error: \"[5_5359_42_123_default.sst] is already exists in /dir/backup_local/\" })"

    若备份失败并出现以上错误消息,采取以下其中一种操作后再重新备份:

    • 更换备份数据目录。例如将 /dir/backup-2020-01-01/ 改为 /dir/backup_local/
    • 删除所有 TiKV 和 BR 节点的备份目录。

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文