跨集群数据迁移工具
StarRocks 跨集群数据迁移工具是社区提供的 StarRocks 数据迁移工具。您可以使用该工具将数据从源集群一键式迁移 到目标集群。
- StarRocks 跨集群数据迁移工具仅支持从存算一体集群迁移数据到存算一体集群或者存算分离集群。
- 数据迁移的目标集群必须为 v3.1.8 或 v3.2.3 及以上版本。
准备工作
以下准备工作需要在数据迁移的目标集群中进行。
开启迁移旧版本兼容
新旧版本的集群间可能存在行为差异,从而导致跨集群数据迁移时出现问题。因此在数据迁移前,您需要为目标集群开启旧版本兼容,并在数据迁移完成后关闭。
-
您可以通过以下语句查看当前集群是否开启旧版本兼容:
ADMIN SHOW FRONTEND CONFIG LIKE 'enable_legacy_compatibility_for_replication';
如果返回值为
true
则表示已经开启旧版本兼容。 -
动态开启旧版本兼容:
ADMIN SET FRONTEND CONFIG("enable_legacy_compatibility_for_replication"="true");
-
为防止数据迁移过程中集群重启后旧版本兼容自动关闭,您还需要在 FE 配置文件 fe.conf 中添加以下配置项:
enable_legacy_compatibility_for_replication = true
数据迁移完成后,您需要删除配置文件中的 enable_legacy_compatibility_for_replication = true
,并通过以下语句动态关闭旧版本兼容:
ADMIN SET FRONTEND CONFIG("enable_legacy_compatibility_for_replication"="false");
关闭 Compaction
如果数据迁移的目标集群为存算分离集群,在数据迁移之前,您需要手动关闭 Compaction,并在数据迁移完成后重新开启。
-
您可以通过以下语句查看当前集群是否开启 Compaction:
ADMIN SHOW FRONTEND CONFIG LIKE 'lake_compaction_max_tasks';
如果返回值为
0
则表示 Compaction 关闭。 -
动态关闭 Compaction:
ADMIN SET FRONTEND CONFIG("lake_compaction_max_tasks"="0");
-
为防止数据迁移过程中集群重启后 Compaction 自动开启,您还需要在 FE 配置文件 fe.conf 中添加以下配置项:
lake_compaction_max_tasks = 0
数据迁移完成后,您需要删除配置文件中的 lake_compaction_max_tasks = 0
,并通过以下语句动态开启 Compaction:
ADMIN SET FRONTEND CONFIG("lake_compaction_max_tasks"="-1");
配置数据迁移(可选)
您可以通过以下 FE 和 BE 参数配置数据迁移操作。通常情况下,默认配置即可满足需求。如果您想保留默认配置,可以选择跳过该步骤。
请注意,增大以下配置项可以加速迁移,但同样会增加源集群负载压力。
FE 参数
以下 FE 参数为动态参数。修改方式请参考 配置 FE 动态参数。
参数名 | 默认值 | 单位 | 描述 |
---|---|---|---|
replication_max_parallel_table_count | 100 | - | 允许并发执行的数据同步任务数。StarRocks 为一张表创建一个同步任务。 |
replication_max_parallel_data_size_mb | 10240 | MB | 允许并发同步的数据量。 |
replication_transaction_timeout_sec | 3600 | 秒 | 同步任务的超时时间。 |
BE 参数
以下 BE 参数为动态参数。修改方式请参考 配置 BE 动态参数。
参数名 | 默认值 | 单位 | 描述 |
---|---|---|---|
replication_threads | 0 | - | 执行同步任务的线程数。0 表示设置线程数为 BE 所在机器的 CPU 核数。 |
第一步:安装工具
推荐您在数据迁移目标集群所在的服务器上安装迁移工具。
-
打开终端,下载工具安装包。
wget https://releases.starrocks.io/starrocks/starrocks-cluster-sync.tar.gz
-
解压安装包。
tar -xvzf starrocks-cluster-sync.tar.gz
第二步:配置工具
迁移相关的配置
进入解压后的文件夹,并修改配置文件 conf/sync.properties。
cd starrocks-cluster-sync
vi conf/sync.properties
文件内容如下:
# If true, all tables will be synchronized only once, and the program will exit automatically after completion.
one_time_run_mode=false
source_fe_host=
source_fe_query_port=9030
source_cluster_user=root
source_cluster_password=
source_cluster_token=
target_fe_host=
target_fe_query_port=9030
target_cluster_user=root
target_cluster_password=
# Comma-separated list of database names or table names like <db_name> or <db_name.table_name>
# example: db1,db2.tbl2,db3
# Effective order: 1. include 2. exclude
include_data_list=
exclude_data_list=
# If there are no special requirements, please maintain the default values for the following configurations.
target_cluster_storage_volume=
target_cluster_replication_num=-1
meta_job_interval_seconds=180
meta_job_threads=4
ddl_job_interval_seconds=10
ddl_job_batch_size=10
ddl_job_allow_drop_target_only=false
ddl_job_allow_drop_schema_change_table=true
ddl_job_allow_drop_inconsistent_partition=true
replication_job_interval_seconds=10
replication_job_batch_size=10
参数说明如下:
参数名 | 描述 |
---|---|
one_time_run_mode | 是否开启一次性同步模式。开启一次性同步模式后,迁移工具只进行全量同步,不进行增量同步。 |
source_fe_host | 源集群 FE 的 IP 地址或 FQDN。 |
source_fe_query_port | 源集群 FE 的查询端口(query_port )。 |
source_cluster_user | 用于登录源集群的用户名。此用户需要有 SYSTEM 级 OPERATE 权限。 |
source_cluster_password | 用于登录源集群的用户密码。 |
source_cluster_token | 源集群的 Token。关于如何获取集群 Token,见以下获取集群 Token部分。 |
target_fe_host | 目标集群 FE 的 IP 地址或 FQDN。 |
target_fe_query_port | 目标集群 FE 的查询端口(query_port )。 |
target_cluster_user | 用于登录目标集群的用户名。此用户需要有 SYSTEM 级 OPERATE 权限。 |
target_cluster_password | 用于登录目标集群的用户密码。 |
include_data_list | 需要迁移的数据库和表,多个对象使用逗号(, )分隔。示例:db1,db2.tbl2,db3 。此项优先于 exclude_data_list 生效。如果您需要迁移集群中所有数据库和表,则无须配置该项。 |
exclude_data_list | 不需要迁移的数据库和表,多个对象使用逗号(, )分隔。示例:db1,db2.tbl2,db3 。include_data_list 优先于此项生效。如果您需要迁移集群中所有数据库和表,则无须配置该项。 |
target_cluster_storage_volume | 目标集群为存算分离集群时,建表使用的 Storage Volume。使用默认 Storage Volume 时无须配置该项。 |
target_cluster_replication_num | 目标集群建表使用的副本数(replication number)。默认值表示使用与源集群相同的副本数。 |
meta_job_interval_seconds | 迁移工具获取源集群和目标集群元数据的周期,单位为秒。此项您可以使用默认值。 |
meta_job_threads | 迁移工具获取源集群和目标集群元数据使用的线程数。此项您可以使用默认值。 |
ddl_job_interval_seconds | 迁移工具在目标集群执行 DDL 的周期,单位为秒。此项您可以使用默认值。 |
ddl_job_batch_size | 迁移工具在目标集群执行 DDL 的批大小。此项您可以使用默认值。 |
ddl_job_allow_drop_target_only | 迁移工具是否自动删除仅在目标集群存在而源集群不存在的数据库,表或分区。默认为 false ,即不删除。此项您可以使用默认值。 |
ddl_job_allow_drop_schema_change_table | 迁移工具是否自动删除源集群和目标集群 Schema 不一致的表,默认为 true ,即删除。此项您可以使用默认值。迁移工具会在同步过程中自动同步删除的表。 |
ddl_job_allow_drop_inconsistent_partition | 迁移工具是否自动删除源集群和目标集群数据分布方式不一致的分区,默认为 true ,即删除。此项您可以使用默认值。迁移工具会在同步过程中自动同步删除的分区。 |
replication_job_interval_seconds | 迁移工具触发数据同步任务的周期,单位为秒。此项您可以使用默认值。 |
replication_job_batch_size | 迁移工具触发数据同步任务的批大小。此项您可以使用默认值。 |
获取集群 Token
您可以通过 FE 的 HTTP 端口获取,或通过 FE 节点的元数据获取集群 Token。
通过 FE 的 HTTP 端口获取集群 Token
运行以下命令:
curl -v http://<fe_host>:<fe_http_port>/check
fe_host
:集群 FE 的 IP 地址或 FQDN。fe_http_port
:集群 FE 的 HTTP 端口。
返回如下:
* About to connect() to xxx.xx.xxx.xx port 8030 (#0)
* Trying xxx.xx.xxx.xx...
* Connected to xxx.xx.xxx.xx (xxx.xx.xxx.xx) port 8030 (#0)
> GET /check HTTP/1.1
> User-Agent: curl/7.29.0
> Host: xxx.xx.xxx.xx:8030
> Accept: */*
>
< HTTP/1.1 200 OK
< content-length: 0
< cluster_id: yyyyyyyyyyy
< content-type: text/html
< token: wwwwwwww-xxxx-yyyy-zzzz-uuuuuuuuuu
< connection: keep-alive
<
* Connection #0 to host xxx.xx.xxx.xx left intact
其中 token
字段即为当前集群的 Token。
通过 FE 节点的元数据获取集群 Token
登录 FE 节点所在的服务器,运行以下命令:
cat fe/meta/image/VERSION | grep token
返回如下:
token=wwwwwwww-xxxx-yyyy-zzzz-uuuuuuuuuu
网络相关的配置(可选)
在数据迁移期间,迁移工具需要访问源和目标集群的所有 FE 节点,并且目标集群需要访问源集群的所有 BE 和 CN 节点。
您可以通过在相应集群上执行以下语句来获取这些节点的网络地址:
-- 获取集群中 FE 节点的网络地址。
SHOW FRONTENDS;
-- 获取集群中 BE 节点的网络地址。
SHOW BACKENDS;
-- 获取集群中 CN 节点的网络地址。
SHOW COMPUTE NODES;
如果这些节点使用了无法从集群外部访问的私有地址(例如 Kubernetes 集群的内部网络地址),您需要将这些私有地址映射到可以从外部访问的地址。
进入解压后的文件夹,并修改配置文件 conf/hosts.properties。
cd starrocks-cluster-sync
vi conf/hosts.properties
默认文件内容如下,说明了网络地址映射的配置方式:
# <SOURCE/TARGET>_<domain>=<IP>
以下示例执行如下操作:
- 将源集群的私有网络地址
192.1.1.1
和192.1.1.2
映射到10.1.1.1
和10.1.1.2
。 - 将目标集群的私有网络地址
fe-0.starrocks.svc.cluster.local
映射到10.1.2.1
。
# <SOURCE/TARGET>_<domain>=<IP>
SOURCE_192.1.1.1=10.1.1.1
SOURCE_192.1.1.2=10.1.1.2
TARGET_fe-0.starrocks.svc.cluster.local=10.1.2.1
第三步:启动迁移工具
配置完成后,启动迁移工具开始数据迁移。
./bin/start.sh
- 请务必确保源集群与目标集群的 BE 节点已通过网络连通。
- 运行期间,迁移工具会周期性地检查目标集群的数据是否落后于源集群,如果落后则会发起数据迁移任务。
- 如果源集群持续有新数据导入,数据同步会一直进行,直至目标集群与源集群数据一致。
- 您可以查询目标集群中处于迁移过程中的表,但请不要导入新数据(当前迁移工具未禁止导入),否则会导致目标集群数据与源集群不一致。
- 请注意数据迁移不会自动结束。您需要手动检查确认迁移完成后停止迁移工具。
查看迁移进度
查看迁移工具日 志
您可以通过迁移工具日志 log/sync.INFO.log 查看迁移进度。
示例:
主要指标如下:
Sync progress
:数据迁移进度。由于迁移工具会周期性地检查目标集群的数据是否落后于源集群,所以当进度为 100% 时,仅代表当前检查周期内数据同步完成。如果源集群持续有新数据导入,该进度可能在下次检查周期内变小。total
:本次迁移操作的各类 Job 总数。ddlPending
:所有待执行的 DDL Job 数量。jobPending
:所有待执行的数据同步 Job 数量。sent
:已从源集群发送但未开始运行的数据同步 Job 数量。理论上该值不会太大,若出现该值持续增加的情况,请联系研发人员。running
:正在执行的数据同步 Job 数量。finished
:执行成功的数据同步 Job 数量。failed
:执行失败的数据同步 Job 数量。失败的数据同步 Job 将会重新发送。因此,通常情况下您可以忽略该指标。若出现该值较大的情况,请联系研发人员。unknown
:未知状态 Job 的数量。理论上该值恒常为0
。若出现该值不为0
的情况,请联系研发人员。