原文链接:【KWDB 2025 创作者计划】_PG14.2整库迁移至KaiwuDB - 墨天轮
作者:董小姐
迁移需求
应开发要求,将PG10.22中 业务用户cosmtopcsp下的cosmtopcsp库中的数据全部迁移到KaiwuDB中,源库和目标库详细信息如下:
OS version | DB version | ip addr | 端口 | 数据量大小 | |
源库 | Centos7.9 x86_64 | PG10.22 | 192.168.0.159 | 5432 | 12MB |
目标库 | KylinV10SP32403 | KaiwuDB2.2.0 | 192.168.19.115 | 26257 | - |
DataXopen是一款广泛使用的离线数据同步工具。KaiwuDB 基于 DataX 开发了数据库迁移工具 KaiwuDB DataX Utils,实现 KaiwuDB(2.0.3 及以上版本)与 MySQL、TDengine、MongoDB、InfluxDB、OpenTSDB、Oracle、PostgreSQL、ClickHouse、KaiwuDB(1.2.x)、KaiwuDB(2.x)等数据库的离线数据同步。
用户通过配置文件设置源数据库和目标数据库的连接、数据迁移等信息。KaiwuDB DataX Utils 自动校验、统计迁移数据并输出迁移报告。在迁移过程中,用户可以查看整体的数据迁移进度。
KaiwuDB DataX Utils 支持以下数据迁移形式:
下表列出了 KaiwuDB 支持迁移的异构源数据库和数据迁移方式。
源数据库 | 目标数据库 | 元数据 | 元数据 + 业务数据 | 业务数据 |
KaiwuDB 关系库 | 表、库 | 表、库 | 表、库 | |
KaiwuDB 时序库 | 表、库 | 表 | 表 | |
KaiwuDB 关系库 | 表、库 | 表 | 表 | |
KaiwuDB 时序库 | 表、库 | 表 | 表 | |
KaiwuDB 时序库 | 表、库 | 表 | 表 | |
KaiwuDB 时序库 | 表、库 | 表 | 表 | |
MongoDB | KaiwuDB 关系库 | - | - | 表 |
Oracle | KaiwuDB 关系库 | - | - | 表 |
OpenTSDB | KaiwuDB 时序库 | - | - | 表 |
ClickHouse | KaiwuDB 关系库 | - | - | 表 |
说明
默认情况下,KaiwuDB 1.2.x 允许重复写入数据且不进行去重。KaiwuDB 2.x 对带有相同时间戳的数据整行去重,后写入的数据覆盖已存在的带有相同时间戳的数据。当将数据从 KaiwuDB 1.2.x 迁移到 KaiwuDB 2.x 时,如需保留源数据库中带有相同时间戳的数据,用户可以在目标数据库上运行 SET CLUSTER SETTING ts.dedup.rule = keep;
命令,允许写入带有相同时间戳的数据。keep
取值只适用于 KaiwuDB 2.x 单机部署模式。
KaiwuDB DataX Utils 支持 DataX 的数据类型。DataX 数据类型与 KaiwuDB 数据类型的映射关系如下表所示:
DataX 数据类型 | KaiwuDB 数据类型 |
INT | TINYINT、SMALLINT、INT |
LONG | TINYINT、SMALLINT、INT、BIGINT、TIMESTAMP、TIMESTAMPTZ |
DOUBLE | FLOAT、REAL、DOUBLE、DECIMAL |
BOOL | BOOL、BIT |
DATE | DATE、TIME、TIMESTAMP、TIMESTAMPTZ |
BYTES | BYTES、VARBYTES |
STRING | char、NCHAR、VARCHAR、NVARCHAR、TIMESTAMP、TIMESTAMPTZ |
注意:不支持Oracle中CLOB大字段数据类型的迁移,ERROR: at or near "clob": syntax error: type does not exist
需是Linux 系统环境
默认已安装,查看openJDK版本,需1.8 及以上版本, 推荐使用 1.8 版本
[root@localhost ~]# java -version openjdk version "1.8.0_402" OpenJDK Runtime Environment Bisheng (build 1.8.0_402-b06) OpenJDK 64-Bit Server VM Bisheng (build 25.402-b06, mixed mode)
参考链接:https://openjdk.org/install/
默认已安装,查看python版本,需2.x 或 3.x版本
[root@localhost ~]# python -V Python 2.7.18
Python下载链接:https://www.python.org/downloads/
查看Maven版本,需3.6 及以上版本
tar -xvf apache-maven-3.9.9-bin.tar.gz -C /usr/local/ echo "PATH=$PATH:/usr/local/apache-maven-3.9.9/bin" >> /etc/profile source /etc/profile mvn -version 或 mvn -v
参考链接:https://maven.apache.org/install.html
Maven下载链接:https://maven.apache.org/download.cgi
DataX 是阿里巴巴集团内被广泛使用的离线数据同步工具/平台,实现包括 MySQL、SQL Server、Oracle、PostgreSQL、HDFS、Hive、HBase、OTS、ODPS 等各种异构数据源之间高效的数据同步功能。
DataX本身作为数据同步框架,将不同数据源的同步抽象为从源头数据源读取数据的Reader插件,以及向目标端写入数据的Writer插件,理论上DataX框架可以支持任意数据源类型的数据同步工作。同时DataX插件体系作为一套生态系统, 每接入一套新数据源该新加入的数据源即可实现和现有的数据源互通。
DataX 安装包中已包含几乎所有已适配数据库的数据读写插件。如果在 DataX 安装包中未找到所需的插件,或版本不兼容,建议从源数据库的官方网站获取适配插件。
将 InfluxDB 的元数据迁移到 KaiwuDB 时,需要使用 KaiwuDB 适配后的 InfluxDB reader 插件。
下载地址:https://datax-opensource.oss-cn-hangzhou.aliyuncs.com/202309/datax.tar.gz
下载后解压至本地某个目录,进入bin目录,即可运行同步作业
mkdir -p /opt/datax tar -xvf datax.tar.gz -C /opt/datax echo "$PATH=$PATH:/opt/datax/datax/bin" >> /etc/profile source /etc/profile
参考链接:https://gitee.com/mirrors/DataX/blob/master/userGuid.md
下载地址:https://gitee.com/kwdb/kwdb/releases/tag/V2.2.0
--查看PORTAL用户数据量 \l+ cosmtopcsp 或 select pg_size_pretty(pg_database_size('cosmtopcsp')); ROUND(SUM(BYTES)/1024/1024/1024,2)||'G' 12MB
--root用户连接 KaiwuDB kwbase sql --insecure --host=192.168.19.115 --创建数据库 create database cosmtopcsp; --创建普通用户 create user cosmtopcsp; grant admin to cosmtopcsp; --root用户退出登录 \q --cosmtopcsp用户登录cosmtopcsp数据库 kwbase sql --insecure --host=192.168.19.115 -u cosmtopcsp -d cosmtopcsp
源数据库是 MySQL、PostgreSQL、TDengine 或 InfluxDB 且目标数据库是 KaiwuDB,用户可以使用迁移工具迁移表结构数据,无需提前创建目标表。
解压缩 KaiwuDB DataX 插件包,将解压后的 kaiwudbwriter
复制到 datax/plugin/writer
目录。
unzip KaiwuDB_datax-2.2.0.zip cp -r kaiwudbwriter /opt/datax/datax/plugin/writer/
.yml
格式的迁移配置文件创建 .yml
格式的迁移配置文件,配置元数据、源数据库和目标数据库。有关配置参数的详细信息,参见配置参数。
PG迁移到 KaiwuDB,.yml文件中不需要配置url连接串,而是需要host和端口号。
[root@localhost datax]# cat pg2kaiwudb.yml metadata: enable: true # 启用元数据迁移 engine-type: RELATIONAL # 引擎类型为关系引擎 auto-ddl: true # 自动创建表 primary-key: true # 启用主键迁移 constraint: true # 启用约束迁移 comment: true # 启用注释迁移 index: true # 启用索引迁移 view: true # 启用视图迁移 data: enable: true # 启用业务数据迁移 batchSize: 1000 # 每批次迁移 1000 条数据 setting: speed: channel: 1 # 设置通道数为 1 errorLimit: percentage: 0.02 # 允许错误数据的比例为 2% core: transport: channel: speed: byte: 1048576 # 每个通道的传输速率为 1 MB record: 1000 # 每个通道每批次传输 1000 条记录 source: type: POSTGRESQL # 源数据库类型是 POSTGRESQL host: 192.168.0.159 # POSTGRESQL 不需要配置URL port: 5432 username: cosmtopcsp # POSTGRESQL 数据库用户名 password: 123456 # POSTGRESQL 数据库密码 databases: - name: cosmtopcsp # 源数据库名 target: type: KAIWUDB # 目标数据库是 KaiwuDB host: 192.168.19.115 # KaiwuDB 不需要配置URL port: 26257 username: cosmtopcsp # KaiwuDB 数据库用户名 password: # KaiwuDB 数据库密码 databases: - name: cosmtopcsp # 目标数据库名
在 kaiwudb-datax-utils-2.2.0.jar
所在目录,执行以下命令,开始迁移表元数据和业务数据。有关迁移命令支持的所有参数,参见迁移命令参数。
PG迁移到KWDB的过程还是很丝滑的,速度也很块。
注意:默认会迁移到public模式下。
nohup java -jar -DyamlPath=/opt/datax/pg2kaiwudb.yml -DdataxPath=/opt/datax/datax -Dpython=python kaiwudb-datax-utils-2.2.0.jar &
查看迁移过程日志:
2025-04-15 11:14:52 INFO c.k.migration.KaiwuDBApplication - Initialize heterogeneous database migration tool. 2025-04-15 11:14:52 INFO c.k.migration.utils.YamlParseHelper - config file: /opt/datax/pg2kaiwudb.yml 2025-04-15 11:15:04 INFO c.k.m.s.impl.MigrationServiceImpl - The source database cosmtopcsp structure definition is complete. 2025-04-15 11:15:04 INFO c.k.m.s.impl.MigrationServiceImpl - Target database table column type conversion is complete. 2025-04-15 11:15:40 INFO c.kaiwudb.migration.utils.CmdHelper - 执行命令成功: [python, /opt/datax/datax/bin/datax.py, /opt/datax/datax/job/POSTGRESQL2KAIWUDB_1491541476009.json] 2025-04-15 11:15:43 INFO c.kaiwudb.migration.utils.CmdHelper - 执行命令成功: [python, /opt/datax/datax/bin/datax.py, /opt/datax/datax/job/POSTGRESQL2KAIWUDB_1491550995907.json] ...... 2025-04-15 11:20:59 INFO c.k.m.s.impl.MigrationServiceImpl - 生成DataX迁移脚本,并执行脚本完成数据迁移同步,迁移报告路径为:/opt/datax/datax/log/迁移报告_20250415112056000940.pdf
源数据库是 MySQL、PostgreSQL、TDengine 或 InfluxDB 且目标数据库是 KaiwuDB,用户可以使用迁移工具迁移表结构数据,无需提前创建目标表。
目标数据库的库名必须与源数据库的库名相同。
如果登录 KaiwuDB 数据库的用户为 admin
用户或 admin
角色的成员,则无需提前建库,KaiwuDB 将自动创建与源数据库同名的数据库。
迁移任务目录:-dataxPath启动参数指定目录下的job目录,以.json为后缀
迁移日志路径:-dataxPath启动参数指定目录下的log目录,以日期生成独立目录
迁移报告路径:-dataxPath启动参数指定,该迁移案例中迁移报告文件路径/opt/datax/datax/log/迁移报告_20250409144917000877.pdf
如果要避免内存溢出或增加datax内存提高迁移速度,可更改conf中的core.json中的jvm参数
{ "entry": { "jvm": "-Xms1G -Xmx1G", "environment": {} },
参数 | 说明 |
| 可选字段,控制是否迁移元数据,设置为 设置为 |
| 指定目的端引擎类型。支持 (时序引擎)。元数据迁移时为必选字段。 |
| 控制是否自动执行 DDL 建表语句,设置为 |
| 控制生成的 DDL 语句中是否包含主键创建语句。 设置为 |
| 控制生成的 DDL 语句中是否包含约束创建语句。 设置为 |
| 控制生成的 DDL 语句中是否包含注释创建语句。 设置为 |
| 控制生成的 DDL 语句中是否包含索引创建语句。 设置为 |
| 控制生成的 DDL 语句中是否包含视图创建语句。 设置为 |
参数 | 说明 |
| 可选字段,控制是否迁移业务数据,设置为 时迁移业务数据。设置为 |
| 可选字段。源端数据库为 InfluxDB 时,指定读取数据的超时时间。默认值为 |
| 可选字段。单次读取数据的条数,默认值为 。 |
| 可选字段。批量写入的数据条数。默认值为 。 |
| 可选字段,源端数据库为 TDengine 时,控制是否忽略不匹配的标签,支持设置为 |
| 可选字段。迁移通道的数量。 |
| 可选字段。迁移通道速度。如果单通道速度为 1 MB,设置为 |
| 可选字段。传输的记录数量。 |
| 可选字段。出错限制百分比。设置为 |
| 可选字段。发生错误的记录数量,定义错误发生时抛出异常的时机。设置为 |
| 可选字段。读写数据时允许出现的错误所占的字节数的上限。 |
| 可选字段。通道速度。 |
| 可选字段。读取的记录数量。 |
参数 | 说明 |
| 必选字段。指定源端数据库类型,支持 、 、 、 、 、 、 、 、 、 和 |
| 指定连接到源数据库的 URL。部分源数据库中,该参数用作 |
| 指定源端数据库的 IP 地址。仅在未使用 参数时需要配置。 |
| 指定源端数据库的端口号。仅在未使用 参数时需要配置。 |
| 必选字段。源数据库的用户名,InfluxDB 2.X 中,该参数用作 |
| 必选字段。源数据库的用户密码,密码不得为空,InfluxDB 2.X 中,该参数用作 |
| 源端数据库名称,大小写敏感,InfluxDB2.X 中会用作 |
| 待读取数据的表名,例如 。指定后系统将只读取该表,未指定时,系统将读取数据库下的全部表数据。InfluxDB 中,该参数用作 |
| 待读取数据的表的列。可配置为使用逗号( )隔开的字符串或 Json 字符串。 |
| 自定义 SQL 查询语句集合。可使用 或 |
| 可选字段。自定义的切分主键。 |
| 可选字段。自定义的 |
| 指定数据读取起始时间,需与 |
| 指定数据读取终止时间,需与 |
| 可选字段。切分时间间隔。该参数只适用于 KaiwuDB 和 InfluxDB。 |
| 可选字段。指定时序表第一列(时间戳列),与 参数同效。源数据库为 KaiwuDB 时为必选字段。 |
| 可选字段。指定源端字符集类型,该参数只适用于 TDengine 。 |
| 可选字段。指定源端查询条件,该参数只适用于 MongoDB。 |
下表列出目标数据库的相关配置参数。
参数 | 说明 |
| 必选字段。指定目标数据库类型,支持 、 、 、 、 、 、 、 和 |
| 指定目标数据库的URL。使用 和 |
| 指定目标数据库的 IP 地址。仅在未使用 |
| 指定目标数据库的端口号。仅在未使用 |
| 必选字段。目标数据库的用户名。 |
| 必选字段。目标数据库的用户密码。 |
| 必选字段。目标数据库的名称,区分大小写。 |
| 待写入数据的表名。MongoDB 中,该参数用作 |
| 待写入数据的表的列,可以配置为使用逗号( |
| 可选字段。数据写入模式,支持 ,默认为 |
| 可选字段。写入数据前要执行的 SQL 语句。该参数只适用于 KaiwuDB 和 TDengine。 |
| 可选字段。写入数据后要执行的 SQL 语句。该参数只适用于 KaiwuDB 和 TDengine。 |
从 KaiwuDB 2.2.0 版本开始,迁移命令不再支持 arguments
参数设置。如果需要设置 JVM 参数以增加内存,可以通过修改 DataX 配置文件来实现。
参数 | 说明 |
| 必选字段,配置文件的路径。 |
|
|
| 已安装的 Python 版本,迁移业务数据时为必选字段。 |
示例
java -jar -DyamlPath=../datax/test/config.yml -DdataxPath=../datax -Dpython=python kaiwudb-datax-utils-2.2.0.jar