导入时实现数据转换

数据仓库 PALO

  • 功能发布记录
  • 操作手册1
    • LDAP认证
    • 时区
    • 使用S3-SDK访问对象存储
    • 权限管理
    • 物化视图
    • 变量
    • 资源管理
    • 数据更新与删除
      • 标记删除
      • Sequence-Column
      • 数据更新
      • 数据删除
    • 备份与恢复
      • 备份与恢复
    • 数据导出1
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 数据导出概述
      • Export
    • 数据导出
      • 全量数据导出
      • 导出查询结果集
      • 导出总览
      • 导出数据到外部表
    • 查询加速1
      • 查询缓存
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
    • 数据导入
      • JSON格式数据导入说明
      • 导入本地数据
      • 导入BOS中的数据
      • 导入事务和原子性
      • 通过外部表同步数据
      • 使用JDBC同步数据
      • 列的映射、转换与过滤
      • 订阅Kafka日志
      • 严格模式
      • 导入总览
    • 数据更新与删除1
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 数据导入1
      • 高并发导入优化(Group Commit)
      • 导入概览
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 数据源
        • Kafka
        • S3 兼容存储
        • 从其他 TP 系统迁移数据
        • HDFS
        • 从其他 AP 系统迁移数据
        • Flink
        • 本地文件
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
  • 开发指南
    • 迁移ClickHouse数据
    • Doris集群间数据迁移
    • 数据更新与删除
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 查询加速
      • 查询缓存
      • Colocation Join
      • 高并发点查
      • Hint
        • Hint 概述
        • Leading Hint
        • Distribute Hint
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
      • 高效去重
        • BITMAP 精准去重
        • HLL 近似去重
      • 优化技术原理
        • TOPN 查询优化
        • 统计信息
        • Pipeline 执行引擎
        • 查询优化器介绍
        • Runtime Filter
      • 查询调优概述
        • 调优概述
        • 诊断工具
        • 分析工具
        • 调优流程
      • 查询优化实践
        • 常见调优参数
        • 计划调优
          • 使用 Hint 控制代价改写
          • 使用异步物化视图透明改写
          • 使用 Leading Hint 控制 Join 顺序
          • 优化表 Schema 设计
          • 使用分区裁剪优化扫表
          • 优化索引设计和使用
          • 使用 Hint 调整 Join Shuffle 方式
          • DML 计划调优
          • 使用 Colocate Group 优化 Join
          • 使用同步物化视图透明改写
          • 使用 SQL Cache 加速查询
        • 执行调优
          • 数据倾斜处理
          • RuntimeFilter 的等待时间调整
          • 并行度调优
    • 数据查询
      • 连接(JOIN)
      • 子查询
      • 复杂类型查询
      • 列转行 (Lateral View)
      • MySQL 兼容性
      • 聚合多维分析
      • 分析函数(窗口函数)
      • 公用表表达式(CTE)
      • 自定义函数
        • 别名函数
        • Java UDF, UDAF, UDTF
    • 数据导出
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 最佳实践
      • 数据导出概述
      • Export
    • 数据导入
      • 高并发导入优化(Group Commit)
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 导入最佳实践
      • 数据源
        • Kafka
        • Snowflake
        • S3 兼容存储
        • Google Cloud Storage
        • 从其他 TP 系统迁移数据
        • Azure Storage
        • 腾讯云 COS
        • MinIO
        • HDFS
        • 阿里云 OSS
        • 华为云 OBS
        • 从其他 AP 系统迁移数据
        • Flink
        • Redshift
        • Amazon S3
        • 本地文件
        • BigQuery
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
    • BI工具接入
      • Sugar
      • Navicat
      • Tableau
      • DBeaver
      • 永洪BI
      • FineBI(帆软)
    • 数据库连接
      • 通过 MySQL 协议连接
      • 基于 Arrow Flight SQL 的高速数据传输链路
    • 湖仓一体
      • 分析 S3或HDFS 上的文件
      • 湖仓一体概述
      • SQL 方言兼容
      • 弹性计算节点
      • 云服务认证接入
      • 元数据缓存
      • 外表统计信息
      • 数据缓存
      • 数据库分析
        • MySQL
        • JDBC Catalog
        • Oracle
        • OceanBase
        • SAP HANA
        • 阿里云 MaxCompute
        • ClickHouse
        • PostgreSQL
        • IBM Db2
        • SQL Server
        • Elasticsearch
      • 湖仓一体最佳实践
        • 使用 PALO 和 Paimon
        • 使用 PALO 和 Iceberg
        • 使用 PALO 和 Hudi
        • 使用 PALO 和 LakeSoul
      • 数据湖构建
        • Iceberg
        • Hive
      • 数据湖分析
        • Hudi Catalog
        • 阿里云 DLF
        • Iceberg Catalog
        • Paimon Catalog
        • Hive Catalog
    • 数据表设计
      • 行业混存
      • 数据压缩
      • Schema 变更
      • 数据类型
      • 自增列
      • 概览
      • 数据库建表最佳实践
      • 冷热数据分层
        • SSD 和 HDD 层级存储
        • 远程存储
        • 冷热数据分层概述
      • 表索引
        • 倒排索引
        • 前缀索引与排序键
        • N-Gram 索引
        • BloomFilter 索引
        • 索引概述
      • 数据划分
        • 数据分桶
        • 数据分布概念
        • 动态分区
        • 自动分区
        • 手动分区
        • 常见文档
      • 数据模型
        • 使用注意
        • 模型概述
        • 主键模型
        • 明细模型
        • 聚合模型
  • 版本发布历史
    • 百度数据仓库 Palo 2.0 版本全新发布
  • SQL手册
    • 字面常量
    • 别名
    • SQL-手册
    • 数据类型
    • SQL语句
    • 注释
    • 内置函数
    • 白名单管理
    • SQL操作符
    • 内置函数
      • 聚合函数
      • 位操作函数
      • 字符串函数
      • 条件函数
      • 数学函数
      • JSON解析函数
      • 类型转换函数
      • 格式转换函数
      • 通用函数
      • 时间和日期函数
      • BITMAP函数
      • 窗口函数
      • 哈希函数
      • HLL函数
    • 语法帮助
      • DML
        • INSERT
        • ROUTINE-LOAD
        • RESTORE
        • SELECT-INTO-OUTFILE
        • ALTER-ROUTINE-LOAD
        • BROKER-LOAD
        • BACKUP
        • EXPORT
        • STREAM-LOAD
      • DDL
        • CREATE-FILE
        • DROP-RESOURCE
        • CREATE-RESOURCE
        • CREATE-MATERIALIZED-VIEW
        • DROP-RESROUCE
        • CREATE-TABLE
        • DROP-REPOSITORY
        • CREATE-REPOSITORY
        • CREATE-ODBC-TABLE
      • 信息查看语句
        • SHOW-BACKUP
        • SHOW-ALTER-TABLE-MATERIALIZED-VIEW
        • SHOW-SNAPSHOT
        • SHOW-ROUTINE-LOAD
        • SHOW-CREATE-ROUTINE-LOAD
        • SHOW-ROLES
        • SHOW-GRANTS
        • SHOW-EXPORT
        • SHOW-ROUTINE-LOAD-TASK
        • SHOW-REPOSITORIES
        • SHOW-LOAD
        • SHOW-RESOURCES
        • SHOW-RESTORE
        • SHOW-PROPERTY
        • SHOW-FILE
      • 辅助命令
        • PAUSE-ROUTINE-LOAD
        • STOP-ROUTINE-LOAD
        • ALTER-ROUTINE-LOAD
        • CANCEL-LOAD
        • RESUME-ROUTINE-LOAD
      • 账户管理
        • SET-PROPERTY
        • REVOKE
        • GRANT
        • CREATE-ROLE
        • DROP-ROLE
        • CREATE-USER
        • DROP-USER
        • SET-PASSWORD
  • 快速入门
    • 快速上手
    • 存算分离
    • 存算一体
  • 典型实践
    • 如何开启Debug日志
    • 导入分析
    • 查询分析
  • 操作手册
    • 权限和子用户
    • 存算一体
      • 连接集群
      • 查询分析
      • 监控告警
        • 监控指标
        • 告警配置
      • 备份恢复
        • 通过管理页面备份与恢复
        • 备份与恢复
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 集群创建
        • 停止与删除
        • 重置管理员密码
        • 集群扩缩容
        • 集群详情
    • 存算分离
      • 连接集群
      • 计算组管理
        • 重启计算组
        • 创建计算组
      • 监控告警
        • 监控指标
        • 告警配置
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 停止与删除
        • 创建集群
        • 重置管理员密码
        • 集群详情
  • 服务等级协议SLA
    • 服务等级协议(SLA)v1.0
  • 产品概述
    • 系统架构
    • 产品特点
    • 产品介绍
  • 视频专区
    • 操作指南
    • 产品简介
  • 产品定价
    • 预付费
    • 计费说明
    • 后付费
所有文档
menu
没有找到结果,请重新输入

数据仓库 PALO

  • 功能发布记录
  • 操作手册1
    • LDAP认证
    • 时区
    • 使用S3-SDK访问对象存储
    • 权限管理
    • 物化视图
    • 变量
    • 资源管理
    • 数据更新与删除
      • 标记删除
      • Sequence-Column
      • 数据更新
      • 数据删除
    • 备份与恢复
      • 备份与恢复
    • 数据导出1
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 数据导出概述
      • Export
    • 数据导出
      • 全量数据导出
      • 导出查询结果集
      • 导出总览
      • 导出数据到外部表
    • 查询加速1
      • 查询缓存
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
    • 数据导入
      • JSON格式数据导入说明
      • 导入本地数据
      • 导入BOS中的数据
      • 导入事务和原子性
      • 通过外部表同步数据
      • 使用JDBC同步数据
      • 列的映射、转换与过滤
      • 订阅Kafka日志
      • 严格模式
      • 导入总览
    • 数据更新与删除1
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 数据导入1
      • 高并发导入优化(Group Commit)
      • 导入概览
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 数据源
        • Kafka
        • S3 兼容存储
        • 从其他 TP 系统迁移数据
        • HDFS
        • 从其他 AP 系统迁移数据
        • Flink
        • 本地文件
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
  • 开发指南
    • 迁移ClickHouse数据
    • Doris集群间数据迁移
    • 数据更新与删除
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 查询加速
      • 查询缓存
      • Colocation Join
      • 高并发点查
      • Hint
        • Hint 概述
        • Leading Hint
        • Distribute Hint
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
      • 高效去重
        • BITMAP 精准去重
        • HLL 近似去重
      • 优化技术原理
        • TOPN 查询优化
        • 统计信息
        • Pipeline 执行引擎
        • 查询优化器介绍
        • Runtime Filter
      • 查询调优概述
        • 调优概述
        • 诊断工具
        • 分析工具
        • 调优流程
      • 查询优化实践
        • 常见调优参数
        • 计划调优
          • 使用 Hint 控制代价改写
          • 使用异步物化视图透明改写
          • 使用 Leading Hint 控制 Join 顺序
          • 优化表 Schema 设计
          • 使用分区裁剪优化扫表
          • 优化索引设计和使用
          • 使用 Hint 调整 Join Shuffle 方式
          • DML 计划调优
          • 使用 Colocate Group 优化 Join
          • 使用同步物化视图透明改写
          • 使用 SQL Cache 加速查询
        • 执行调优
          • 数据倾斜处理
          • RuntimeFilter 的等待时间调整
          • 并行度调优
    • 数据查询
      • 连接(JOIN)
      • 子查询
      • 复杂类型查询
      • 列转行 (Lateral View)
      • MySQL 兼容性
      • 聚合多维分析
      • 分析函数(窗口函数)
      • 公用表表达式(CTE)
      • 自定义函数
        • 别名函数
        • Java UDF, UDAF, UDTF
    • 数据导出
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 最佳实践
      • 数据导出概述
      • Export
    • 数据导入
      • 高并发导入优化(Group Commit)
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 导入最佳实践
      • 数据源
        • Kafka
        • Snowflake
        • S3 兼容存储
        • Google Cloud Storage
        • 从其他 TP 系统迁移数据
        • Azure Storage
        • 腾讯云 COS
        • MinIO
        • HDFS
        • 阿里云 OSS
        • 华为云 OBS
        • 从其他 AP 系统迁移数据
        • Flink
        • Redshift
        • Amazon S3
        • 本地文件
        • BigQuery
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
    • BI工具接入
      • Sugar
      • Navicat
      • Tableau
      • DBeaver
      • 永洪BI
      • FineBI(帆软)
    • 数据库连接
      • 通过 MySQL 协议连接
      • 基于 Arrow Flight SQL 的高速数据传输链路
    • 湖仓一体
      • 分析 S3或HDFS 上的文件
      • 湖仓一体概述
      • SQL 方言兼容
      • 弹性计算节点
      • 云服务认证接入
      • 元数据缓存
      • 外表统计信息
      • 数据缓存
      • 数据库分析
        • MySQL
        • JDBC Catalog
        • Oracle
        • OceanBase
        • SAP HANA
        • 阿里云 MaxCompute
        • ClickHouse
        • PostgreSQL
        • IBM Db2
        • SQL Server
        • Elasticsearch
      • 湖仓一体最佳实践
        • 使用 PALO 和 Paimon
        • 使用 PALO 和 Iceberg
        • 使用 PALO 和 Hudi
        • 使用 PALO 和 LakeSoul
      • 数据湖构建
        • Iceberg
        • Hive
      • 数据湖分析
        • Hudi Catalog
        • 阿里云 DLF
        • Iceberg Catalog
        • Paimon Catalog
        • Hive Catalog
    • 数据表设计
      • 行业混存
      • 数据压缩
      • Schema 变更
      • 数据类型
      • 自增列
      • 概览
      • 数据库建表最佳实践
      • 冷热数据分层
        • SSD 和 HDD 层级存储
        • 远程存储
        • 冷热数据分层概述
      • 表索引
        • 倒排索引
        • 前缀索引与排序键
        • N-Gram 索引
        • BloomFilter 索引
        • 索引概述
      • 数据划分
        • 数据分桶
        • 数据分布概念
        • 动态分区
        • 自动分区
        • 手动分区
        • 常见文档
      • 数据模型
        • 使用注意
        • 模型概述
        • 主键模型
        • 明细模型
        • 聚合模型
  • 版本发布历史
    • 百度数据仓库 Palo 2.0 版本全新发布
  • SQL手册
    • 字面常量
    • 别名
    • SQL-手册
    • 数据类型
    • SQL语句
    • 注释
    • 内置函数
    • 白名单管理
    • SQL操作符
    • 内置函数
      • 聚合函数
      • 位操作函数
      • 字符串函数
      • 条件函数
      • 数学函数
      • JSON解析函数
      • 类型转换函数
      • 格式转换函数
      • 通用函数
      • 时间和日期函数
      • BITMAP函数
      • 窗口函数
      • 哈希函数
      • HLL函数
    • 语法帮助
      • DML
        • INSERT
        • ROUTINE-LOAD
        • RESTORE
        • SELECT-INTO-OUTFILE
        • ALTER-ROUTINE-LOAD
        • BROKER-LOAD
        • BACKUP
        • EXPORT
        • STREAM-LOAD
      • DDL
        • CREATE-FILE
        • DROP-RESOURCE
        • CREATE-RESOURCE
        • CREATE-MATERIALIZED-VIEW
        • DROP-RESROUCE
        • CREATE-TABLE
        • DROP-REPOSITORY
        • CREATE-REPOSITORY
        • CREATE-ODBC-TABLE
      • 信息查看语句
        • SHOW-BACKUP
        • SHOW-ALTER-TABLE-MATERIALIZED-VIEW
        • SHOW-SNAPSHOT
        • SHOW-ROUTINE-LOAD
        • SHOW-CREATE-ROUTINE-LOAD
        • SHOW-ROLES
        • SHOW-GRANTS
        • SHOW-EXPORT
        • SHOW-ROUTINE-LOAD-TASK
        • SHOW-REPOSITORIES
        • SHOW-LOAD
        • SHOW-RESOURCES
        • SHOW-RESTORE
        • SHOW-PROPERTY
        • SHOW-FILE
      • 辅助命令
        • PAUSE-ROUTINE-LOAD
        • STOP-ROUTINE-LOAD
        • ALTER-ROUTINE-LOAD
        • CANCEL-LOAD
        • RESUME-ROUTINE-LOAD
      • 账户管理
        • SET-PROPERTY
        • REVOKE
        • GRANT
        • CREATE-ROLE
        • DROP-ROLE
        • CREATE-USER
        • DROP-USER
        • SET-PASSWORD
  • 快速入门
    • 快速上手
    • 存算分离
    • 存算一体
  • 典型实践
    • 如何开启Debug日志
    • 导入分析
    • 查询分析
  • 操作手册
    • 权限和子用户
    • 存算一体
      • 连接集群
      • 查询分析
      • 监控告警
        • 监控指标
        • 告警配置
      • 备份恢复
        • 通过管理页面备份与恢复
        • 备份与恢复
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 集群创建
        • 停止与删除
        • 重置管理员密码
        • 集群扩缩容
        • 集群详情
    • 存算分离
      • 连接集群
      • 计算组管理
        • 重启计算组
        • 创建计算组
      • 监控告警
        • 监控指标
        • 告警配置
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 停止与删除
        • 创建集群
        • 重置管理员密码
        • 集群详情
  • 服务等级协议SLA
    • 服务等级协议(SLA)v1.0
  • 产品概述
    • 系统架构
    • 产品特点
    • 产品介绍
  • 视频专区
    • 操作指南
    • 产品简介
  • 产品定价
    • 预付费
    • 计费说明
    • 后付费
  • 文档中心
  • arrow
  • 数据仓库PALO
  • arrow
  • 操作手册1
  • arrow
  • 数据导入1
  • arrow
  • 导入时实现数据转换
本页目录
  • 导入语法
  • Stream Load
  • Broker Load
  • Routine Load
  • Insert Into
  • 列映射
  • 调整列顺序
  • 源文件列数量多于表列数
  • 源文件列数量少于表列数
  • 列变换
  • 将源文件中的列值经变换后导入表中
  • 通过 case when 函数,有条件的进行列变换
  • 源文件中的 NULL 值处理
  • 前置过滤
  • 示例
  • 后置过滤
  • 在列映射和转换缺省的情况下,直接过滤
  • 对经过列变换的数据进行过滤
  • 多条件过滤

导入时实现数据转换

更新时间:2025-08-21

Doris 在数据导入时提供了强大的数据转换能力,可以简化部分数据处理流程,减少对额外 ETL 工具的依赖。主要支持以下四种转换方式:

  • 列映射:将源数据列映射到目标表的不同列。
  • 列变换:使用函数和表达式对源数据进行实时转换。
  • 前置过滤:在列映射和列变换前过滤掉不需要的原始数据。
  • 后置过滤:在列映射和列变换后数据对最终结果进行过滤。

通过这些内置的数据转换功能,可以提高导入效率,并确保数据处理逻辑的一致性。

导入语法

Stream Load

通过在 HTTP header 中设置以下参数实现数据转换:

参数 说明
columns 指定列映射和列变换
where 指定后置过滤

注意: Stream Load 不支持前置过滤。

示例:

Plain Text
1curl --location-trusted -u user:passwd \
2    -H "columns: k1, k2, tmp_k3, k3 = tmp_k3 + 1" \
3    -H "where: k1 > 1" \
4    -T data.csv \
5    http://<fe_ip>:<fe_http_port>/api/example_db/example_table/_stream_load

Broker Load

在 SQL 语句中通过以下子句实现数据转换:

子句 说明
column list 指定列映射,格式为 (k1, k2, tmp_k3)
SET 指定列变换
PRECEDING FILTER 指定前置过滤
WHERE 指定后置过滤

示例:

Plain Text
1LOAD LABEL test_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE `test_tbl`
5    (k1, k2, tmp_k3)
6    PRECEDING FILTER k1 = 1
7    SET (
8        k3 = tmp_k3 + 1
9    )
10    WHERE k1 > 1
11)
12WITH S3 (...);

Routine Load

在 SQL 语句中通过以下子句实现数据转换:

子句 说明
COLUMNS 指定列映射和列变换
PRECEDING FILTER 指定前置过滤
WHERE 指定后置过滤

示例:

Plain Text
1CREATE ROUTINE LOAD test_db.label1 ON test_tbl
2    COLUMNS(k1, k2, tmp_k3, k3 = tmp_k3 + 1),
3    PRECEDING FILTER k1 = 1,
4    WHERE k1 > 1
5    ...

Insert Into

Insert Into 可以直接在 SELECT 语句中完成数据转换,使用 WHERE 子句实现数据过滤。

列映射

列映射用于定义源数据列与目标表列之间的对应关系,能够处理以下场景:

  • 源数据与目标表的列顺序不一致
  • 源数据与目标表的列数量不匹配

调整列顺序

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

目标表有 k1, k2, k3, k4 四列,要实现如下映射:

Plain Text
1列 1 -> k1
2列 2 -> k3
3列 3 -> k2
4列 4 -> k4

创建目标表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 STRING,
5    k3 INT,
6    k4 DOUBLE
7) ENGINE = OLAP
8DUPLICATE KEY(k1)
9DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1,k3,k2,k4" \
4    -T data.csv \
5    -X PUT \
6    http://<fe_ip>:<fe_http_port>/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label_broker
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, k3, k2, k4)
7)
8WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k3, k2, k4),
3COLUMNS TERMINATED BY ","
4FROM KAFKA (...);

查询结果

Plain Text
1mysql> select * from example_table;
2+------+-----------+------+------+
3| k1   | k2        | k3   | k4   |
4+------+-----------+------+------+
5|    2 | shanghai  |  200 |  1.2 |
6|    4 | chongqing | NULL |  1.4 |
7|    3 | guangzhou |  300 |  1.3 |
8|    1 | beijing   |  100 |  1.1 |
9+------+-----------+------+------+

源文件列数量多于表列数

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

目标表有 k1, k2, k3 三列,而源文件包含四列数据。我们只需要源文件的第 1、第 2、第 4 列,映射关系如下:

Plain Text
1列 1 -> k1
2列 2 -> k2
3列 4 -> k3

要跳过源文件中的某些列,只需在列映射时使用任意不存在于目标表的列名。这些列名可以自定义,不受限制,导入时会自动忽略这些列的数据。

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 STRING,
5    k3 DOUBLE
6) ENGINE = OLAP
7DUPLICATE KEY(k1)
8DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u usr:passwd \
2    -H "column_separator:," \
3    -H "columns: k1,k2,tmp_skip,k3" \
4    -T data.csv \
5    http://<fe_ip>:<fe_http_port>/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label_broker
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (tmp_k1, tmp_k2, tmp_skip, tmp_k3)
7    SET (
8        k1 = tmp_k1,
9        k2 = tmp_k2,
10        k3 = tmp_k3
11    )
12)
13WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k2, tmp_skip, k3),
3PROPERTIES
4(
5    "format" = "csv",
6    "column_separator" = ","
7)
8FROM KAFKA (...);

注意:示例中的 tmp_skip 可以替换为任意名称,只要这些名称不在目标表的列定义中即可。

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+------+
3| k1   | k2   | k3   |
4+------+------+------+
5|    1 | 100  |  1.1 |
6|    2 | 200  |  1.2 |
7|    3 | 300  |  1.3 |
8|    4 | NULL |  1.4 |
9+------+------+------+

源文件列数量少于表列数

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

目标表有 k1, k2, k3, k4, k5 五列,而源文件包含四列数据。我们只需要源文件的第 1、第 2、第 3、第 4 列,映射关系如下:

Plain Text
1列 1 -> k1
2列 2 -> k3
3列 3 -> k2
4列 4 -> k4
5k5 使用默认值

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 STRING,
5    k3 INT,
6    k4 DOUBLE,
7    k5 INT DEFAULT 2
8) ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1,k3,k2,k4" \
4    -T data.csv \
5    http://<fe_ip>:<fe_http_port>/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label_broker
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (tmp_k1, tmp_k3, tmp_k2, tmp_k4)
7    SET (
8        k1 = tmp_k1,
9        k3 = tmp_k3,
10        k2 = tmp_k2,
11        k4 = tmp_k4
12    )
13)
14WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k3, k2, k4),
3COLUMNS TERMINATED BY ","
4FROM KAFKA (...);

说明:

  • 如果 k5 列有默认值,将使用默认值填充
  • 如果 k5 列是可空列(nullable)但没有默认值,将填充 NULL 值
  • 如果 k5 列是非空列且没有默认值,导入会失败

查询结果

Plain Text
1mysql> select * from example_table;
2+------+-----------+------+------+------+
3| k1   | k2        | k3   | k4   | k5   |
4+------+-----------+------+------+------+
5|    1 | beijing   |  100 |  1.1 |    2 |
6|    2 | shanghai  |  200 |  1.2 |    2 |
7|    3 | guangzhou |  300 |  1.3 |    2 |
8|    4 | chongqing | NULL |  1.4 |    2 |
9+------+-----------+------+------+------+

列变换

列变换功能允许用户对源文件中列值进行变换,支持使用绝大部分内置函数。列变换操作通常是和列映射一起定义的,即先对列进行映射,再进行变换。

将源文件中的列值经变换后导入表中

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

表中有 k1,k2,k3,k4 4 列,导入映射和变换关系如下:

Plain Text
1列 1       -> k1
2列 2 * 100 -> k3
3列 3       -> k2
4列 4       -> k4

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 STRING,
5    k3 INT,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1, tmp_k3, k2, k4, k3 = tmp_k3 * 100" \
4    -T data.csv \
5    http://host:port/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, tmp_k3, k2, k4)
7    SET (
8        k3 = tmp_k3 * 100
9    )
10)
11WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, tmp_k3, k2, k4, k3 = tmp_k3 * 100),
3COLUMNS TERMINATED BY ","
4FROM KAFKA (...);

查询结果

Plain Text
1mysql> select * from example_table;
2+------+-----------+-------+------+
3| k1   | k2        | k3    | k4   |
4+------+-----------+-------+------+
5|    1 | beijing   | 10000 |  1.1 |
6|    2 | shanghai  | 20000 |  1.2 |
7|    3 | guangzhou | 30000 |  1.3 |
8|    4 | chongqing |  NULL |  1.4 |
9+------+-----------+-------+------+

通过 case when 函数,有条件的进行列变换

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

表中有 k1,k2,k3,k4 4 列。对于源数据中 beijing, shanghai, guangzhou, chongqing 分别转换为对应的地区 id 后导入:

Plain Text
1列 1                  -> k1
2列 2                  -> k2
3列 3 进行地区 id 转换后    -> k3
4列 4                  -> k4

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 INT,
5    k3 INT,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1, k2, tmp_k3, k4, k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END" \
4    -T data.csv \
5    http://host:port/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, k2, tmp_k3, k4)
7    SET (
8        k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END
9    )
10)
11WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k2, tmp_k3, k4, k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END),
3COLUMNS TERMINATED BY ","
4FROM KAFKA (...);

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+------+------+
3| k1   | k2   | k3   | k4   |
4+------+------+------+------+
5|    1 |  100 |    1 |  1.1 |
6|    2 |  200 |    2 |  1.2 |
7|    3 |  300 |    3 |  1.3 |
8|    4 | NULL |    4 |  1.4 |
9+------+------+------+------+

源文件中的 NULL 值处理

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

表中有 k1,k2,k3,k4 4 列。在对地区 id 转换的同时,对于源数据中 k1 列的 null 值转换成 0 导入:

Plain Text
1列1                      -> k1
2列2 如果为null 则转换成0   -> k2
3列3                      -> k3
4列4                      -> k4

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 INT,
5    k3 INT,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1, tmp_k2, tmp_k3, k4, k2 = ifnull(tmp_k2, 0), k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END" \
4    -T data.csv \
5    http://host:port/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, tmp_k2, tmp_k3, k4)
7    SET (
8        k2 = ifnull(tmp_k2, 0),
9        k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END
10    )
11)
12WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, tmp_k2, tmp_k3, k4, k2 = ifnull(tmp_k2, 0), k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END),
3COLUMNS TERMINATED BY ","
4FROM KAFKA (...);

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+------+------+
3| k1   | k2   | k3   | k4   |
4+------+------+------+------+
5|    1 |  100 |    1 |  1.1 |
6|    2 |  200 |    2 |  1.2 |
7|    3 |  300 |    3 |  1.3 |
8|    4 |    0 |    4 |  1.4 |
9+------+------+------+------+

前置过滤

前置过滤是在数据转换前对原始数据进行过滤的功能,可以提前过滤掉不需要处理的数据,减少后续处理的数据量,提高导入效率。该功能仅支持 Broker Load 和 Routine Load 两种导入方式。 前置过滤有以下应用场景:

  • 转换前做过滤

希望在列映射和转换前做过滤的场景,能够先行过滤掉部分不需要的数据。

  • 过滤列不存在于表中,仅作为过滤标识

比如源数据中存储了多张表的数据(或者多张表的数据写入了同一个 Kafka 消息队列)。数据中每行有一列表名来标识该行数据属于哪个表。用户可以通过前置过滤条件来筛选对应的表数据进行导入。

示例

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

前置过滤条件为:

Plain Text
1列1>1,即只导入 列1>1 的数据,其他数据过滤掉。

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 INT,
5    k3 STRING,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, k2, k3, k4)
7    PRECEDING FILTER k1 > 1
8)
9WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k2, k3, k4),
3COLUMNS TERMINATED BY ","
4PRECEDING FILTER k1 > 1
5FROM KAFKA (...)

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+-----------+------+
3| k1   | k2   | k3        | k4   |
4+------+------+-----------+------+
5|    2 |  200 | shanghai  |  1.2 |
6|    3 |  300 | guangzhou |  1.3 |
7|    4 | NULL | chongqing |  1.4 |
8+------+------+-----------+------+

后置过滤

后置过滤在数据转换后执行,可以根据转换后的结果进行过滤。

在列映射和转换缺省的情况下,直接过滤

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

表中有 k1,k2,k3,k4 4 列,在缺省列映射和转换的情况下,只导入源文件中第 4 列为大于 1.2 的数据行。

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 INT,
5    k3 STRING,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1, k2, k3, k4" \
4    -H "where: k4 > 1.2" \
5    -T data.csv \
6    http://host:port/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, k2, k3, k4)
7    where k4 > 1.2
8)
9WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k2, k3, k4),
3COLUMNS TERMINATED BY ","
4WHERE k4 > 1.2;
5FROM KAFKA (...)

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+-----------+------+
3| k1   | k2   | k3        | k4   |
4+------+------+-----------+------+
5|    3 |  300 | guangzhou |  1.3 |
6|    4 | NULL | chongqing |  1.4 |
7+------+------+-----------+------+

对经过列变换的数据进行过滤

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

表中有 k1,k2,k3,k4 4 列。在列变换示例中,我们将省份名称转换成了 id。这里我们希望过滤掉 id 为 3 的数据

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 INT,
5    k3 INT,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1, k2, tmp_k3, k4, k3 = case tmp_k3 when 'beijing' then 1 when 'shanghai' then 2 when 'guangzhou' then 3 when 'chongqing' then 4 else null end" \
4    -H "where: k3 != 3" \
5    -T data.csv \
6    http://host:port/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, k2, tmp_k3, k4)
7    SET (
8        k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END
9    )
10    WHERE k3 != 3
11)
12WITH s3 (...); 
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k2, tmp_k3, k4),
3COLUMNS TERMINATED BY ","
4SET (
5    k3 = CASE tmp_k3 WHEN 'beijing' THEN 1 WHEN 'shanghai' THEN 2 WHEN 'guangzhou' THEN 3 WHEN 'chongqing' THEN 4 ELSE NULL END
6)
7WHERE k3 != 3;
8FROM KAFKA (...)

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+------+------+
3| k1   | k2   | k3   | k4   |
4+------+------+------+------+
5|    1 |  100 |    1 |  1.1 |
6|    2 |  200 |    2 |  1.2 |
7|    4 | NULL |    4 |  1.4 |
8+------+------+------+------+

多条件过滤

假设有以下源数据(表头列名仅为方便表述,实际并无表头):

Plain Text
1列 1,列 2,列 3,列 4
21,100,beijing,1.1
32,200,shanghai,1.2
43,300,guangzhou,1.3
54,\N,chongqing,1.4

表中有 k1,k2,k3,k4 4 列。过滤掉 k1 列为 null 的数据,同时过滤掉 k4 列小于 1.2 的数据

创建示例表

Plain Text
1CREATE TABLE example_table
2(
3    k1 INT,
4    k2 INT,
5    k3 STRING,
6    k4 DOUBLE
7)
8ENGINE = OLAP
9DUPLICATE KEY(k1)
10DISTRIBUTED BY HASH(k1) BUCKETS 1;

导入数据

  • Stream Load
Plain Text
1curl --location-trusted -u user:passwd \
2    -H "column_separator:," \
3    -H "columns: k1, k2, k3, k4" \
4    -H "where: k1 is not null and k4 > 1.2" \
5    -T data.csv \
6    http://host:port/api/example_db/example_table/_stream_load
  • Broker Load
Plain Text
1LOAD LABEL example_db.label1
2(
3    DATA INFILE("s3://bucket_name/data.csv")
4    INTO TABLE example_table
5    COLUMNS TERMINATED BY ","
6    (k1, k2, k3, k4)
7    where k1 is not null and k4 > 1.2
8)
9WITH s3 (...);
  • Routine Load
Plain Text
1CREATE ROUTINE LOAD example_db.example_routine_load ON example_table
2COLUMNS(k1, k2, k3, k4),
3COLUMNS TERMINATED BY ","
4WHERE k1 is not null and k4 > 1.2
5FROM KAFKA (...);

查询结果

Plain Text
1mysql> select * from example_table;
2+------+------+-----------+------+
3| k1   | k2   | k3        | k4   |
4+------+------+-----------+------+
5|    3 |  300 | guangzhou |  1.3 |
6|    4 | NULL | chongqing |  1.4 |
7+------+------+-----------+------+~~~~

上一篇
导入高可用性
下一篇
数据源