传输对象范围

数据传输服务 DTS

  • 任务管理
    • 任务限速
    • 修改迁移任务的当前位点
    • 查看任务进度
    • 创建类似任务
    • 一键反向
    • 管理任务对象
      • 同步Online DDL
      • 迁移数据库账号
      • 修改同步对象
      • 传输对象范围
      • 设置过滤条件
      • 库表列名映射
    • 生命周期
      • 结束任务
      • 删除任务
      • 暂停任务
      • 变更任务链路规格
      • 启动任务
  • API3.0
    • 调用说明
    • API概览
    • 目录
    • 数据传输任务
      • 结束任务
      • 更新任务名称
      • 暂停任务
      • 查询前置检查结果
      • 释放任务
      • 修改同步对象
      • 修改同步对象记录
      • 创建任务
      • 前置检查
      • 强制跳过预检查
      • 查询任务列表
      • 变更链路规格
      • 配置任务
      • 查询任务信息
      • 启动任务
      • demo
        • 专线迁移Redis Cluster迁移到云数据库Redis企业集群版-一键反向
        • 专线迁移MongoDB副本集迁移到云数据库MongoDB副本集
        • 专线迁移Redis Cluster迁移到云数据库Redis标准版
        • 专线迁移Redis Cluster迁移到云数据库Redis标准版-数据校验
        • 专线迁移Redis Cluster迁移到云数据库Redis企业集群版-数据校验
        • 公网sql迁移到公网kafka
        • 专线迁移Redis标准版迁移到云数据库Redis标准版-一键反向
        • 专线迁移的MongoDB分片集迁移到云数据库MongoDB分片集-数据校验
        • 专线迁移MongoDB副本集迁移到云数据库MongoDB副本集-一键反向
        • 专线迁移MySQL迁移到云数据库RDS-一键反向
        • 专线迁移的Redis标准版迁移到云数据库Redis标准版-数据校验
        • 专线迁移MySQL迁移到云数据库RDS-数据校验
        • 专线迁移MongoDB分片集迁移到云数据库MongoDB分片集
        • 专线迁移MongoDB副本集迁移到云数据库MongoDB副本集-数据校验
        • 专线迁移MySQL迁移到云数据库RDS
        • 专线迁移Redis Cluster迁移到云数据库Redis企业集群版
        • 专线迁移Redis标准版迁移到云数据库Redis标准版
      • 其他
        • 一键反向查询前置检查结果
        • 展示授权白名单
        • 一键反向延迟检查
        • 获取订单状态
        • 配置一键反向
        • 查询vpc列表
        • 查询MySQL实例拥有的账号列表
        • 绑定&解除标签
        • 查询可用区列表
        • 检查数据库连通性
        • 一键反向
      • 数据校验
        • 查询数据校验任务列表
        • 数据校验任务启动
        • 创建数据校验任务
        • 配置数据校验任务
        • 停止校验
        • 查看数据校验比对结果
        • 数据校验前置检查
        • 查看数据校验任务信息
  • 监控报警
    • 查看任务监控
    • 设置报警策略
  • 产品计费
    • 计费概述
    • 到期或欠费说明
    • 计费方式
    • 变更和退订说明
  • 数据校验
    • 配置数据校验
    • 查看数据校验
    • 数据校验概述
  • Java_SDK
    • SDK下载页
    • 安装-DTS-Java-SDK
    • 使用数据订阅SDK
    • SDK接口简介
    • SDK下载
    • 概述
  • 快速入门
    • 购买流程
    • 数据迁移操作指导
    • 配置迁移任务
  • 典型实践
    • 使用NimoShake将Amazon DynamoDB迁移至百度云DocDB
    • 不同库名间的数据同步
    • 获取主账号ID
    • 使用DTS实现目标端为Elasticsearch的数据迁移
    • 使用DTS实现MySQL数据拆分
    • 数据库迁移上云
    • 业务切换流程
    • DTS支持专线迁移
    • DTS支持专线迁移(新)
    • 修改RDS MySQL参数提升迁移性能
    • MySQL实例的双向同步
  • 准备工作
    • 自建MySQL创建账号并设置binlog
    • 迁移评估
      • 源端MySQL迁移评估
    • 网络准备
      • 网络准备概述
      • VPC接入
      • 添加DTS服务IP白名单
      • 本地IDC接入百度智能云
        • VPN接入
        • 专线接入
        • 公网接入
    • 访问控制
      • 子用户权限管理
  • 产品简介
    • 支持的数据流
    • 功能概览
    • 基本概念
    • 产品优势
    • 架构原理
    • 应用场景
    • 什么是数据库传输服务DTS
    • 链路规格说明
  • 数据迁移
    • 跨账号迁移云数据库实例
    • 迁移方案概览
    • TiDB为源的迁移
      • 自建TiDB迁移至GaiaDB
    • Oracle为源的迁移
      • 自建Oracle迁移至RDS MySQL
    • GaiaDB为源的迁移
      • GaiaDB实例间的迁移
    • MySQL为源的迁移
      • 腾讯云MySQL迁移至RDS MySQL
      • RDS MySQL迁移至GaiaDB
      • 自建MySQL迁移至GaiaDB
      • 自建MySQL迁移至RDS MySQL
      • 阿里云PolarDB迁移至GaiaDB
      • RDS MySQL实例间的迁移
      • 阿里云MySQL迁移至RDS MySQL
      • MySQL迁移至Kafka
    • 异构数据库间的数据类型映射关系
      • 百度智能云DTS数据类型
      • DTS支持的数据源端
        • 将Kafka作为源端
        • 将Redis标准版作为源端
        • 将GaiaDB作为源端
        • 将Oracle作为源端
        • 将SQL Server作为源端
        • 将云上百度DRDS作为源端
        • 将MongoDB分片集作为源端
        • 将PostgreSQL作为源端
        • 将MongoDB副本集作为源端
        • 将MySQL作为源端
      • DTS支持的数据目的端
        • 将SQL Server作为目标端
        • 将Elasticsearch作为DTS目的端
        • 将GaiaDB作为目标端
        • 将Palo作为目标端
        • 将DataHub作为目标端
        • 将PostgreSQL作为目标端
        • 将MySQL作为目标端
        • 将Kafka作为DTS目标端
    • SQL Server 为源的迁移
      • 自建SQL Server迁移至RDS SQL Server
    • MongoDB为源的迁移
      • 自建MongoDB分片集迁移至DocDB MongoDB
      • DocDB MongoDB副本集迁移至DocDB MongoDB
    • Kafka为源的迁移
      • 自建Kafka迁移至消息服务 for Kafka
    • PostgreSQL为源的迁移
      • RDS PostgreSQL实例间的迁移
      • 自建PostgreSQL迁移至RDS PostgreSQL
      • AWS PostgreSQL迁移至RDS PostgreSQL
    • Redis为源的迁移
      • 使用DTS实现自建Redis标准版到百度智能云SCS for Redis标准版的数据迁移
      • 云数据库Redis实例间的迁移
      • 自建Redis迁移至云数据库Redis(含PegaDB)
    • Milvus为源的迁移
      • 自建 Milvus 迁移至向量数据库 VectorDB
  • 产品动态
    • 功能发布记录
    • 公告
      • 数据传输服务DTS支持多规格数据传输任务
      • 数据传输服务DTS任务状态升级通知
  • 预检查项
    • TiDB检查项
    • PostgreSQL检查项
    • MySQL检查项
    • Palo检查项
    • Oracle检查项
    • GaiaDB-X检查项
    • RocketMQ检查项
    • MongoDB检查项
    • Redis检查项
    • Elasticsearch检查项
    • GaiaDB检查项
    • Kafka检查项
    • 预检查不通过处理方法
      • 源库、目标库的连接数是否满足要求检查
      • 迁移表依赖的外键父表是否迁移检查
      • 目的数据库是否只读检查
      • 目的数据库的账号权限是否满足迁移要求检查
      • 目的库中表是否为空检查
      • 源库和目标库中SQL_MODE是否合法检查
      • 数据传输服务器是否能连通目的数据库检查
      • 源数据库的版本号检查
      • 源数据库的账号权限是否满足迁移要求检查
      • 迁移表是否有不支持的存储引擎检查
      • 预检查项汇总
      • 迁移表的表结构在目的库是否存在检查
      • 目的数据库待迁入的数据库是否可用检查
      • 目的库是否存在跟待迁移对象同名的结构对象检查
      • 数据传输服务器是否能连通源数据库检查
  • 服务支持
    • 相关协议
      • DTS服务等级协议SLA
    • 常见问题
      • 使用类问题
      • 数据迁移问题
      • 常见问题总览
      • 数据同步问题
所有文档
menu
没有找到结果,请重新输入

数据传输服务 DTS

  • 任务管理
    • 任务限速
    • 修改迁移任务的当前位点
    • 查看任务进度
    • 创建类似任务
    • 一键反向
    • 管理任务对象
      • 同步Online DDL
      • 迁移数据库账号
      • 修改同步对象
      • 传输对象范围
      • 设置过滤条件
      • 库表列名映射
    • 生命周期
      • 结束任务
      • 删除任务
      • 暂停任务
      • 变更任务链路规格
      • 启动任务
  • API3.0
    • 调用说明
    • API概览
    • 目录
    • 数据传输任务
      • 结束任务
      • 更新任务名称
      • 暂停任务
      • 查询前置检查结果
      • 释放任务
      • 修改同步对象
      • 修改同步对象记录
      • 创建任务
      • 前置检查
      • 强制跳过预检查
      • 查询任务列表
      • 变更链路规格
      • 配置任务
      • 查询任务信息
      • 启动任务
      • demo
        • 专线迁移Redis Cluster迁移到云数据库Redis企业集群版-一键反向
        • 专线迁移MongoDB副本集迁移到云数据库MongoDB副本集
        • 专线迁移Redis Cluster迁移到云数据库Redis标准版
        • 专线迁移Redis Cluster迁移到云数据库Redis标准版-数据校验
        • 专线迁移Redis Cluster迁移到云数据库Redis企业集群版-数据校验
        • 公网sql迁移到公网kafka
        • 专线迁移Redis标准版迁移到云数据库Redis标准版-一键反向
        • 专线迁移的MongoDB分片集迁移到云数据库MongoDB分片集-数据校验
        • 专线迁移MongoDB副本集迁移到云数据库MongoDB副本集-一键反向
        • 专线迁移MySQL迁移到云数据库RDS-一键反向
        • 专线迁移的Redis标准版迁移到云数据库Redis标准版-数据校验
        • 专线迁移MySQL迁移到云数据库RDS-数据校验
        • 专线迁移MongoDB分片集迁移到云数据库MongoDB分片集
        • 专线迁移MongoDB副本集迁移到云数据库MongoDB副本集-数据校验
        • 专线迁移MySQL迁移到云数据库RDS
        • 专线迁移Redis Cluster迁移到云数据库Redis企业集群版
        • 专线迁移Redis标准版迁移到云数据库Redis标准版
      • 其他
        • 一键反向查询前置检查结果
        • 展示授权白名单
        • 一键反向延迟检查
        • 获取订单状态
        • 配置一键反向
        • 查询vpc列表
        • 查询MySQL实例拥有的账号列表
        • 绑定&解除标签
        • 查询可用区列表
        • 检查数据库连通性
        • 一键反向
      • 数据校验
        • 查询数据校验任务列表
        • 数据校验任务启动
        • 创建数据校验任务
        • 配置数据校验任务
        • 停止校验
        • 查看数据校验比对结果
        • 数据校验前置检查
        • 查看数据校验任务信息
  • 监控报警
    • 查看任务监控
    • 设置报警策略
  • 产品计费
    • 计费概述
    • 到期或欠费说明
    • 计费方式
    • 变更和退订说明
  • 数据校验
    • 配置数据校验
    • 查看数据校验
    • 数据校验概述
  • Java_SDK
    • SDK下载页
    • 安装-DTS-Java-SDK
    • 使用数据订阅SDK
    • SDK接口简介
    • SDK下载
    • 概述
  • 快速入门
    • 购买流程
    • 数据迁移操作指导
    • 配置迁移任务
  • 典型实践
    • 使用NimoShake将Amazon DynamoDB迁移至百度云DocDB
    • 不同库名间的数据同步
    • 获取主账号ID
    • 使用DTS实现目标端为Elasticsearch的数据迁移
    • 使用DTS实现MySQL数据拆分
    • 数据库迁移上云
    • 业务切换流程
    • DTS支持专线迁移
    • DTS支持专线迁移(新)
    • 修改RDS MySQL参数提升迁移性能
    • MySQL实例的双向同步
  • 准备工作
    • 自建MySQL创建账号并设置binlog
    • 迁移评估
      • 源端MySQL迁移评估
    • 网络准备
      • 网络准备概述
      • VPC接入
      • 添加DTS服务IP白名单
      • 本地IDC接入百度智能云
        • VPN接入
        • 专线接入
        • 公网接入
    • 访问控制
      • 子用户权限管理
  • 产品简介
    • 支持的数据流
    • 功能概览
    • 基本概念
    • 产品优势
    • 架构原理
    • 应用场景
    • 什么是数据库传输服务DTS
    • 链路规格说明
  • 数据迁移
    • 跨账号迁移云数据库实例
    • 迁移方案概览
    • TiDB为源的迁移
      • 自建TiDB迁移至GaiaDB
    • Oracle为源的迁移
      • 自建Oracle迁移至RDS MySQL
    • GaiaDB为源的迁移
      • GaiaDB实例间的迁移
    • MySQL为源的迁移
      • 腾讯云MySQL迁移至RDS MySQL
      • RDS MySQL迁移至GaiaDB
      • 自建MySQL迁移至GaiaDB
      • 自建MySQL迁移至RDS MySQL
      • 阿里云PolarDB迁移至GaiaDB
      • RDS MySQL实例间的迁移
      • 阿里云MySQL迁移至RDS MySQL
      • MySQL迁移至Kafka
    • 异构数据库间的数据类型映射关系
      • 百度智能云DTS数据类型
      • DTS支持的数据源端
        • 将Kafka作为源端
        • 将Redis标准版作为源端
        • 将GaiaDB作为源端
        • 将Oracle作为源端
        • 将SQL Server作为源端
        • 将云上百度DRDS作为源端
        • 将MongoDB分片集作为源端
        • 将PostgreSQL作为源端
        • 将MongoDB副本集作为源端
        • 将MySQL作为源端
      • DTS支持的数据目的端
        • 将SQL Server作为目标端
        • 将Elasticsearch作为DTS目的端
        • 将GaiaDB作为目标端
        • 将Palo作为目标端
        • 将DataHub作为目标端
        • 将PostgreSQL作为目标端
        • 将MySQL作为目标端
        • 将Kafka作为DTS目标端
    • SQL Server 为源的迁移
      • 自建SQL Server迁移至RDS SQL Server
    • MongoDB为源的迁移
      • 自建MongoDB分片集迁移至DocDB MongoDB
      • DocDB MongoDB副本集迁移至DocDB MongoDB
    • Kafka为源的迁移
      • 自建Kafka迁移至消息服务 for Kafka
    • PostgreSQL为源的迁移
      • RDS PostgreSQL实例间的迁移
      • 自建PostgreSQL迁移至RDS PostgreSQL
      • AWS PostgreSQL迁移至RDS PostgreSQL
    • Redis为源的迁移
      • 使用DTS实现自建Redis标准版到百度智能云SCS for Redis标准版的数据迁移
      • 云数据库Redis实例间的迁移
      • 自建Redis迁移至云数据库Redis(含PegaDB)
    • Milvus为源的迁移
      • 自建 Milvus 迁移至向量数据库 VectorDB
  • 产品动态
    • 功能发布记录
    • 公告
      • 数据传输服务DTS支持多规格数据传输任务
      • 数据传输服务DTS任务状态升级通知
  • 预检查项
    • TiDB检查项
    • PostgreSQL检查项
    • MySQL检查项
    • Palo检查项
    • Oracle检查项
    • GaiaDB-X检查项
    • RocketMQ检查项
    • MongoDB检查项
    • Redis检查项
    • Elasticsearch检查项
    • GaiaDB检查项
    • Kafka检查项
    • 预检查不通过处理方法
      • 源库、目标库的连接数是否满足要求检查
      • 迁移表依赖的外键父表是否迁移检查
      • 目的数据库是否只读检查
      • 目的数据库的账号权限是否满足迁移要求检查
      • 目的库中表是否为空检查
      • 源库和目标库中SQL_MODE是否合法检查
      • 数据传输服务器是否能连通目的数据库检查
      • 源数据库的版本号检查
      • 源数据库的账号权限是否满足迁移要求检查
      • 迁移表是否有不支持的存储引擎检查
      • 预检查项汇总
      • 迁移表的表结构在目的库是否存在检查
      • 目的数据库待迁入的数据库是否可用检查
      • 目的库是否存在跟待迁移对象同名的结构对象检查
      • 数据传输服务器是否能连通源数据库检查
  • 服务支持
    • 相关协议
      • DTS服务等级协议SLA
    • 常见问题
      • 使用类问题
      • 数据迁移问题
      • 常见问题总览
      • 数据同步问题
  • 文档中心
  • arrow
  • 数据传输服务DTS
  • arrow
  • 任务管理
  • arrow
  • 管理任务对象
  • arrow
  • 传输对象范围
本页目录
  • 使用限制
  • 手动选择
  • 触发器改写方式
  • 模式匹配
  • 迁移对象配置示例

传输对象范围

更新时间:2025-08-21

在配置数据迁移任务时,DTS 支持迁移选择传输对象范围。您可以选择整个实例或指定对象进行迁移。本文将介绍在配置数据迁移任务过程中,如何选择传输对象。

使用限制

  • 目前仅 MySQL、GaiaDB、PostgreSQL、Oracle、MongoDB 支持手动选择
  • 目前仅 MySQL、GaiaDB、PostgreSQL、Oracle、MongoDB 支持模式匹配
  • PostgreSQL 的模式匹配仅支持表模式匹配,不支持库模式匹配
  • Oracle 不支持带 % 的模式匹配

手动选择

配置 DTS 任务传输对象为 手动选择 后,在源端对象区域中勾选需要迁移的对象。同时,您可以在已选择对象区域中实现以下操作:

  • 重命名库或表:点击右侧已选择库、表和视图后的 编辑,重命名库、表和视图。详情参见 库表列名映射。
  • 过滤表内数据:点击右侧已选择表后的 编辑,可以实现对表内数据的过滤。详情参见 设置过滤条件。

说明

  • 迁移对象非整库时,仅 MySQL、GaiaDB 支持 OnlineDDL 操作,需打开 Online DDL 开关,详情参见 同步 Online DDL。
  • PostgreSQL 与 Oracle 的增量同步不支持自动迁移新增的对象及其相关变更。
  • MongoDB暂不支持库表映射与设置过滤条件。
  • 迁移对象选择的粒度为库或表。若迁移对象选择的是表,则其他对象例如视图、触发器、函数或存储过程等,不会被迁移至目标库。
  • 为保证数据迁移的性能和迁移任务的稳定性,DTS 会对 MySQL 的触发器进行改写,改写方式详情参见 触发器改写方式。

触发器改写方式

  • 源端触发器:
SQL
1CREATE TRIGGER test_trigger AFTER INSERT ON t1
2    FOR EACH ROW
3    BEGIN
4        INSERT INTO t2 VALUES (NEW.id);
5    END;
  • 目标端修改后的触发器:
SQL
1CREATE TRIGGER test_trigger AFTER INSERT ON t1
2    FOR EACH ROW
3    BEGIN
4        IF (SELECT @`__BAIDU_DTS_WRITER__`) IS NULL THEN
5            BEGIN
6                INSERT INTO t2 VALUES (NEW.id);
7            END;
8        END IF;
9    END;

DTS 往目标端写数据时,会在连接会话中设置 __BAIDU_DTS_WRITER__变量,设置后,对于 DTS 执行的所有 SQL,都不会导致触发器运行;但对于用户执行的 SQL,触发器的功能能够正常运行。

模式匹配

配置 DTS 任务传输对象为 模式匹配 后,支持以 JSON 格式配置需要迁移的对象。具体规则如下:

JSON
1[
2    {
3        "type" : "db",
4        "src" : "待迁移的库1的名称",
5        "dst" : "待迁移的库1在目标实例中的名称"
6    },
7    {
8        "type" : "db",
9        "src" : "模式匹配多个库",
10        "dst" : "待迁移的库在目标实例中的名称"
11    },
12    {
13        "type" : "db",
14        "src" : "待迁移的库1的名称",
15        "dst" : "待迁移的库1在目标实例中的名称",
16        "where" : "",
17        "sqlType" : "库级sqlType过滤"
18    },
19    {
20        "type" : "table",
21        "src" : "待迁移或订阅的表A的名称",
22        "dst" : "待迁移或订阅的表A在目标实例中的名称"
23        "fieldBlacklist" : "列过滤(黑名单)",
24        "fieldWhitelist" : "列过滤(白名单)",
25        "where" : "行过滤"
26    },
27    {
28        "type" : "table",
29        "src" : "模式匹配多张表",
30        "dst" : "待迁移的表在目标实例中的名称",
31        "fieldBlacklist" : "列过滤(黑名单)",
32        "fieldWhitelist" : "列过滤(白名单)",
33        "where" : "行过滤"
34    },
35    {
36        "type" : "table",
37        "src" : "待迁移或订阅的表A的名称",
38        "dst" : "待迁移或订阅的表A在目标实例中的名称",
39        "where" : "",
40        "sqlType" : "表级sqlType过滤"
41    },
42]
参数 是否必须 说明
type Y 待迁移对象类型:db(迁移整个库)、 table(迁移单张表或者模式匹配多张表)
src Y 如果是迁移整个库,此项为待迁移的库的名称;如果是迁移表,此项为待迁移的表的名称
dst Y 如果是迁移整个库,此项为待迁移的库在目标实例中的名称;如果是迁移表,此项为待迁移的表在目标实例中的名称
fieldBlacklist N 列过滤(黑名单),符合条件的列将被排除,支持数据库标准 SQL SELECT 条件,示例:n1,n2
fieldWhitelist N 列过滤(白名单),符合条件的列将被保留,支持数据库标准 SQL SELECT 条件,示例:n1,n2
where N 行过滤,符合条件的行将被保留,仅支持数据库标准 SQL WHERE 条件,Oracle 数据库注意区分字段名大小写。示例:id>10 AND status='success'
sqlType N 库表级别sqlType过滤。支持过滤的语句类型有I(insert)、U(update)、D(delete)、Q(DDL)

迁移对象配置示例

匹配上游 old_db 的库,并不做转换的同步到下游

JSON
1[
2    {
3        "type" : "db", 
4        "src" : "old_db",
5        "dst" : "old_db" 
6    },
7    {
8        ...
9    }
10]

匹配上游 old_db 的库,并转换为 new_db 的同步到下游

JSON
1[
2    {
3        "type" : "db", 
4        "src" : "old_db",
5        "dst" : "new_db" 
6    },
7    {
8        ...
9    }
10]

匹配上游前缀为 old_db 的库,并不做转换的同步到下游

JSON
1[
2    {
3        "type" : "db",
4        "src" : "old_db%",
5        "dst" : "old_db%",
6    },
7    {
8        ...
9    }
10]

匹配上游前缀为 old_db 的库,转换成前缀为 new_db 的库同步到下游

JSON
1[
2    {
3        "type" : "db", 
4        "src" : "old_db%",
5        "dst" : "new_db%" 
6    },
7    {
8        ...
9    }
10]

只支持同步上游 old_db 库的 insert 和 update 语句到下游

JSON
1[
2    {
3        "type" : "db", 
4        "src" : "old_db",
5        "dst" : "old_db",
6        "sqlType" : "I,U"
7    },
8    {
9        ...
10    }
11]

匹配上游表 db.tbl,并不做转换的同步到下游

JSON
1[
2    {
3        "type" : "table",
4        "src" : "db.tbl",
5        "dst" : "db.tbl",
6        "fieldBlacklist" : "id,id2,id3",
7        "fieldWhitelist" : "name,name2,name3",
8        "where" : "id>6 and name='dtstest'"
9    },
10    {
11        ...
12    }
13]

匹配上游表 old_db.old_tbl,并转换为表 new_db.new_tbl 同步到下游

JSON
1[
2    {
3        "type" : "table",
4        "src" : "old_db.old_tbl",
5        "dst" : "new_db.new_tbl",
6        "fieldBlacklist" : "id,id2,id3",
7        "fieldWhitelist" : "name,name2,name3",
8        "where" : "id>6 and name='dtstest'"
9    },
10    {
11        ...
12    }
13]

匹配上游前缀为 old_db.old_tbl 的表,并不做转换的同步到下游

JSON
1[
2    {
3        "type" : "table",
4        "src" : "old_db.old_tbl_%",
5        "dst" : "old_db.old_tbl_%",
6        "fieldBlacklist" : "id,id2,id3",
7        "fieldWhitelist" : "name,name2,name3",
8        "where" : "id>6 and name='dtstest'"
9    },
10    {
11        ...
12    }
13]

匹配上游前缀为 old_db.old_tbl 的表,并转换成前缀为 new_db.new_tbl 的表同步到下游

JSON
1[
2    {
3        "type" : "table",
4        "src" : "old_db.old_tbl_%",
5        "dst" : "new_db.new_tbl_%",
6        "fieldBlacklist" : "id,id2,id3",
7        "fieldWhitelist" : "name,name2,name3",
8        "where" : "id>6 and name='dtstest'"
9    },
10    {
11        ...
12    }
13]

匹配上游前缀为 old_db 的库、前缀为 old_tbl 的表,并转换成前缀为 new_db 的库,前缀为 new_tbl 的表同步到下游

JSON
1[
2    {
3        "type" : "table",
4        "src" : "old_db_%.old_tbl_%",
5        "dst" : "new_db_%.new_tbl_%",
6        "fieldBlacklist" : "id,id2,id3",
7        "fieldWhitelist" : "name,name2,name3",
8        "where" : "id>6 and name='dtstest'"
9    },
10    {
11        ...
12    }
13]

只支持同步上游表 db.tbl 的 delete 和 DDL 语句到下游

JSON
1[
2    {
3        "type" : "table",
4        "src" : "db.tbl",
5        "dst" : "db.tbl",
6        "sqlType" : "D,Q"
7    },
8    {
9        ...
10    }
11]

上一篇
修改同步对象
下一篇
设置过滤条件