同步物化视图

数据仓库 PALO

  • 功能发布记录
  • 操作手册1
    • LDAP认证
    • 时区
    • 使用S3-SDK访问对象存储
    • 权限管理
    • 物化视图
    • 变量
    • 资源管理
    • 数据更新与删除
      • 标记删除
      • Sequence-Column
      • 数据更新
      • 数据删除
    • 备份与恢复
      • 备份与恢复
    • 数据导出1
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 数据导出概述
      • Export
    • 数据导出
      • 全量数据导出
      • 导出查询结果集
      • 导出总览
      • 导出数据到外部表
    • 查询加速1
      • 查询缓存
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
    • 数据导入
      • JSON格式数据导入说明
      • 导入本地数据
      • 导入BOS中的数据
      • 导入事务和原子性
      • 通过外部表同步数据
      • 使用JDBC同步数据
      • 列的映射、转换与过滤
      • 订阅Kafka日志
      • 严格模式
      • 导入总览
    • 数据更新与删除1
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 数据导入1
      • 高并发导入优化(Group Commit)
      • 导入概览
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 数据源
        • Kafka
        • S3 兼容存储
        • 从其他 TP 系统迁移数据
        • HDFS
        • 从其他 AP 系统迁移数据
        • Flink
        • 本地文件
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
  • 开发指南
    • 迁移ClickHouse数据
    • Doris集群间数据迁移
    • 数据更新与删除
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 查询加速
      • 查询缓存
      • Colocation Join
      • 高并发点查
      • Hint
        • Hint 概述
        • Leading Hint
        • Distribute Hint
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
      • 高效去重
        • BITMAP 精准去重
        • HLL 近似去重
      • 优化技术原理
        • TOPN 查询优化
        • 统计信息
        • Pipeline 执行引擎
        • 查询优化器介绍
        • Runtime Filter
      • 查询调优概述
        • 调优概述
        • 诊断工具
        • 分析工具
        • 调优流程
      • 查询优化实践
        • 常见调优参数
        • 计划调优
          • 使用 Hint 控制代价改写
          • 使用异步物化视图透明改写
          • 使用 Leading Hint 控制 Join 顺序
          • 优化表 Schema 设计
          • 使用分区裁剪优化扫表
          • 优化索引设计和使用
          • 使用 Hint 调整 Join Shuffle 方式
          • DML 计划调优
          • 使用 Colocate Group 优化 Join
          • 使用同步物化视图透明改写
          • 使用 SQL Cache 加速查询
        • 执行调优
          • 数据倾斜处理
          • RuntimeFilter 的等待时间调整
          • 并行度调优
    • 数据查询
      • 连接(JOIN)
      • 子查询
      • 复杂类型查询
      • 列转行 (Lateral View)
      • MySQL 兼容性
      • 聚合多维分析
      • 分析函数(窗口函数)
      • 公用表表达式(CTE)
      • 自定义函数
        • 别名函数
        • Java UDF, UDAF, UDTF
    • 数据导出
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 最佳实践
      • 数据导出概述
      • Export
    • 数据导入
      • 高并发导入优化(Group Commit)
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 导入最佳实践
      • 数据源
        • Kafka
        • Snowflake
        • S3 兼容存储
        • Google Cloud Storage
        • 从其他 TP 系统迁移数据
        • Azure Storage
        • 腾讯云 COS
        • MinIO
        • HDFS
        • 阿里云 OSS
        • 华为云 OBS
        • 从其他 AP 系统迁移数据
        • Flink
        • Redshift
        • Amazon S3
        • 本地文件
        • BigQuery
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
    • BI工具接入
      • Sugar
      • Navicat
      • Tableau
      • DBeaver
      • 永洪BI
      • FineBI(帆软)
    • 数据库连接
      • 通过 MySQL 协议连接
      • 基于 Arrow Flight SQL 的高速数据传输链路
    • 湖仓一体
      • 分析 S3或HDFS 上的文件
      • 湖仓一体概述
      • SQL 方言兼容
      • 弹性计算节点
      • 云服务认证接入
      • 元数据缓存
      • 外表统计信息
      • 数据缓存
      • 数据库分析
        • MySQL
        • JDBC Catalog
        • Oracle
        • OceanBase
        • SAP HANA
        • 阿里云 MaxCompute
        • ClickHouse
        • PostgreSQL
        • IBM Db2
        • SQL Server
        • Elasticsearch
      • 湖仓一体最佳实践
        • 使用 PALO 和 Paimon
        • 使用 PALO 和 Iceberg
        • 使用 PALO 和 Hudi
        • 使用 PALO 和 LakeSoul
      • 数据湖构建
        • Iceberg
        • Hive
      • 数据湖分析
        • Hudi Catalog
        • 阿里云 DLF
        • Iceberg Catalog
        • Paimon Catalog
        • Hive Catalog
    • 数据表设计
      • 行业混存
      • 数据压缩
      • Schema 变更
      • 数据类型
      • 自增列
      • 概览
      • 数据库建表最佳实践
      • 冷热数据分层
        • SSD 和 HDD 层级存储
        • 远程存储
        • 冷热数据分层概述
      • 表索引
        • 倒排索引
        • 前缀索引与排序键
        • N-Gram 索引
        • BloomFilter 索引
        • 索引概述
      • 数据划分
        • 数据分桶
        • 数据分布概念
        • 动态分区
        • 自动分区
        • 手动分区
        • 常见文档
      • 数据模型
        • 使用注意
        • 模型概述
        • 主键模型
        • 明细模型
        • 聚合模型
  • 版本发布历史
    • 百度数据仓库 Palo 2.0 版本全新发布
  • SQL手册
    • 字面常量
    • 别名
    • SQL-手册
    • 数据类型
    • SQL语句
    • 注释
    • 内置函数
    • 白名单管理
    • SQL操作符
    • 内置函数
      • 聚合函数
      • 位操作函数
      • 字符串函数
      • 条件函数
      • 数学函数
      • JSON解析函数
      • 类型转换函数
      • 格式转换函数
      • 通用函数
      • 时间和日期函数
      • BITMAP函数
      • 窗口函数
      • 哈希函数
      • HLL函数
    • 语法帮助
      • DML
        • INSERT
        • ROUTINE-LOAD
        • RESTORE
        • SELECT-INTO-OUTFILE
        • ALTER-ROUTINE-LOAD
        • BROKER-LOAD
        • BACKUP
        • EXPORT
        • STREAM-LOAD
      • DDL
        • CREATE-FILE
        • DROP-RESOURCE
        • CREATE-RESOURCE
        • CREATE-MATERIALIZED-VIEW
        • DROP-RESROUCE
        • CREATE-TABLE
        • DROP-REPOSITORY
        • CREATE-REPOSITORY
        • CREATE-ODBC-TABLE
      • 信息查看语句
        • SHOW-BACKUP
        • SHOW-ALTER-TABLE-MATERIALIZED-VIEW
        • SHOW-SNAPSHOT
        • SHOW-ROUTINE-LOAD
        • SHOW-CREATE-ROUTINE-LOAD
        • SHOW-ROLES
        • SHOW-GRANTS
        • SHOW-EXPORT
        • SHOW-ROUTINE-LOAD-TASK
        • SHOW-REPOSITORIES
        • SHOW-LOAD
        • SHOW-RESOURCES
        • SHOW-RESTORE
        • SHOW-PROPERTY
        • SHOW-FILE
      • 辅助命令
        • PAUSE-ROUTINE-LOAD
        • STOP-ROUTINE-LOAD
        • ALTER-ROUTINE-LOAD
        • CANCEL-LOAD
        • RESUME-ROUTINE-LOAD
      • 账户管理
        • SET-PROPERTY
        • REVOKE
        • GRANT
        • CREATE-ROLE
        • DROP-ROLE
        • CREATE-USER
        • DROP-USER
        • SET-PASSWORD
  • 快速入门
    • 快速上手
    • 存算分离
    • 存算一体
  • 典型实践
    • 如何开启Debug日志
    • 导入分析
    • 查询分析
  • 操作手册
    • 权限和子用户
    • 存算一体
      • 连接集群
      • 查询分析
      • 监控告警
        • 监控指标
        • 告警配置
      • 备份恢复
        • 通过管理页面备份与恢复
        • 备份与恢复
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 集群创建
        • 停止与删除
        • 重置管理员密码
        • 集群扩缩容
        • 集群详情
    • 存算分离
      • 连接集群
      • 计算组管理
        • 重启计算组
        • 创建计算组
      • 监控告警
        • 监控指标
        • 告警配置
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 停止与删除
        • 创建集群
        • 重置管理员密码
        • 集群详情
  • 服务等级协议SLA
    • 服务等级协议(SLA)v1.0
  • 产品概述
    • 系统架构
    • 产品特点
    • 产品介绍
  • 视频专区
    • 操作指南
    • 产品简介
  • 产品定价
    • 预付费
    • 计费说明
    • 后付费
所有文档
menu
没有找到结果,请重新输入

数据仓库 PALO

  • 功能发布记录
  • 操作手册1
    • LDAP认证
    • 时区
    • 使用S3-SDK访问对象存储
    • 权限管理
    • 物化视图
    • 变量
    • 资源管理
    • 数据更新与删除
      • 标记删除
      • Sequence-Column
      • 数据更新
      • 数据删除
    • 备份与恢复
      • 备份与恢复
    • 数据导出1
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 数据导出概述
      • Export
    • 数据导出
      • 全量数据导出
      • 导出查询结果集
      • 导出总览
      • 导出数据到外部表
    • 查询加速1
      • 查询缓存
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
    • 数据导入
      • JSON格式数据导入说明
      • 导入本地数据
      • 导入BOS中的数据
      • 导入事务和原子性
      • 通过外部表同步数据
      • 使用JDBC同步数据
      • 列的映射、转换与过滤
      • 订阅Kafka日志
      • 严格模式
      • 导入总览
    • 数据更新与删除1
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 数据导入1
      • 高并发导入优化(Group Commit)
      • 导入概览
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 数据源
        • Kafka
        • S3 兼容存储
        • 从其他 TP 系统迁移数据
        • HDFS
        • 从其他 AP 系统迁移数据
        • Flink
        • 本地文件
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
  • 开发指南
    • 迁移ClickHouse数据
    • Doris集群间数据迁移
    • 数据更新与删除
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 查询加速
      • 查询缓存
      • Colocation Join
      • 高并发点查
      • Hint
        • Hint 概述
        • Leading Hint
        • Distribute Hint
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
      • 高效去重
        • BITMAP 精准去重
        • HLL 近似去重
      • 优化技术原理
        • TOPN 查询优化
        • 统计信息
        • Pipeline 执行引擎
        • 查询优化器介绍
        • Runtime Filter
      • 查询调优概述
        • 调优概述
        • 诊断工具
        • 分析工具
        • 调优流程
      • 查询优化实践
        • 常见调优参数
        • 计划调优
          • 使用 Hint 控制代价改写
          • 使用异步物化视图透明改写
          • 使用 Leading Hint 控制 Join 顺序
          • 优化表 Schema 设计
          • 使用分区裁剪优化扫表
          • 优化索引设计和使用
          • 使用 Hint 调整 Join Shuffle 方式
          • DML 计划调优
          • 使用 Colocate Group 优化 Join
          • 使用同步物化视图透明改写
          • 使用 SQL Cache 加速查询
        • 执行调优
          • 数据倾斜处理
          • RuntimeFilter 的等待时间调整
          • 并行度调优
    • 数据查询
      • 连接(JOIN)
      • 子查询
      • 复杂类型查询
      • 列转行 (Lateral View)
      • MySQL 兼容性
      • 聚合多维分析
      • 分析函数(窗口函数)
      • 公用表表达式(CTE)
      • 自定义函数
        • 别名函数
        • Java UDF, UDAF, UDTF
    • 数据导出
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 最佳实践
      • 数据导出概述
      • Export
    • 数据导入
      • 高并发导入优化(Group Commit)
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 导入最佳实践
      • 数据源
        • Kafka
        • Snowflake
        • S3 兼容存储
        • Google Cloud Storage
        • 从其他 TP 系统迁移数据
        • Azure Storage
        • 腾讯云 COS
        • MinIO
        • HDFS
        • 阿里云 OSS
        • 华为云 OBS
        • 从其他 AP 系统迁移数据
        • Flink
        • Redshift
        • Amazon S3
        • 本地文件
        • BigQuery
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
    • BI工具接入
      • Sugar
      • Navicat
      • Tableau
      • DBeaver
      • 永洪BI
      • FineBI(帆软)
    • 数据库连接
      • 通过 MySQL 协议连接
      • 基于 Arrow Flight SQL 的高速数据传输链路
    • 湖仓一体
      • 分析 S3或HDFS 上的文件
      • 湖仓一体概述
      • SQL 方言兼容
      • 弹性计算节点
      • 云服务认证接入
      • 元数据缓存
      • 外表统计信息
      • 数据缓存
      • 数据库分析
        • MySQL
        • JDBC Catalog
        • Oracle
        • OceanBase
        • SAP HANA
        • 阿里云 MaxCompute
        • ClickHouse
        • PostgreSQL
        • IBM Db2
        • SQL Server
        • Elasticsearch
      • 湖仓一体最佳实践
        • 使用 PALO 和 Paimon
        • 使用 PALO 和 Iceberg
        • 使用 PALO 和 Hudi
        • 使用 PALO 和 LakeSoul
      • 数据湖构建
        • Iceberg
        • Hive
      • 数据湖分析
        • Hudi Catalog
        • 阿里云 DLF
        • Iceberg Catalog
        • Paimon Catalog
        • Hive Catalog
    • 数据表设计
      • 行业混存
      • 数据压缩
      • Schema 变更
      • 数据类型
      • 自增列
      • 概览
      • 数据库建表最佳实践
      • 冷热数据分层
        • SSD 和 HDD 层级存储
        • 远程存储
        • 冷热数据分层概述
      • 表索引
        • 倒排索引
        • 前缀索引与排序键
        • N-Gram 索引
        • BloomFilter 索引
        • 索引概述
      • 数据划分
        • 数据分桶
        • 数据分布概念
        • 动态分区
        • 自动分区
        • 手动分区
        • 常见文档
      • 数据模型
        • 使用注意
        • 模型概述
        • 主键模型
        • 明细模型
        • 聚合模型
  • 版本发布历史
    • 百度数据仓库 Palo 2.0 版本全新发布
  • SQL手册
    • 字面常量
    • 别名
    • SQL-手册
    • 数据类型
    • SQL语句
    • 注释
    • 内置函数
    • 白名单管理
    • SQL操作符
    • 内置函数
      • 聚合函数
      • 位操作函数
      • 字符串函数
      • 条件函数
      • 数学函数
      • JSON解析函数
      • 类型转换函数
      • 格式转换函数
      • 通用函数
      • 时间和日期函数
      • BITMAP函数
      • 窗口函数
      • 哈希函数
      • HLL函数
    • 语法帮助
      • DML
        • INSERT
        • ROUTINE-LOAD
        • RESTORE
        • SELECT-INTO-OUTFILE
        • ALTER-ROUTINE-LOAD
        • BROKER-LOAD
        • BACKUP
        • EXPORT
        • STREAM-LOAD
      • DDL
        • CREATE-FILE
        • DROP-RESOURCE
        • CREATE-RESOURCE
        • CREATE-MATERIALIZED-VIEW
        • DROP-RESROUCE
        • CREATE-TABLE
        • DROP-REPOSITORY
        • CREATE-REPOSITORY
        • CREATE-ODBC-TABLE
      • 信息查看语句
        • SHOW-BACKUP
        • SHOW-ALTER-TABLE-MATERIALIZED-VIEW
        • SHOW-SNAPSHOT
        • SHOW-ROUTINE-LOAD
        • SHOW-CREATE-ROUTINE-LOAD
        • SHOW-ROLES
        • SHOW-GRANTS
        • SHOW-EXPORT
        • SHOW-ROUTINE-LOAD-TASK
        • SHOW-REPOSITORIES
        • SHOW-LOAD
        • SHOW-RESOURCES
        • SHOW-RESTORE
        • SHOW-PROPERTY
        • SHOW-FILE
      • 辅助命令
        • PAUSE-ROUTINE-LOAD
        • STOP-ROUTINE-LOAD
        • ALTER-ROUTINE-LOAD
        • CANCEL-LOAD
        • RESUME-ROUTINE-LOAD
      • 账户管理
        • SET-PROPERTY
        • REVOKE
        • GRANT
        • CREATE-ROLE
        • DROP-ROLE
        • CREATE-USER
        • DROP-USER
        • SET-PASSWORD
  • 快速入门
    • 快速上手
    • 存算分离
    • 存算一体
  • 典型实践
    • 如何开启Debug日志
    • 导入分析
    • 查询分析
  • 操作手册
    • 权限和子用户
    • 存算一体
      • 连接集群
      • 查询分析
      • 监控告警
        • 监控指标
        • 告警配置
      • 备份恢复
        • 通过管理页面备份与恢复
        • 备份与恢复
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 集群创建
        • 停止与删除
        • 重置管理员密码
        • 集群扩缩容
        • 集群详情
    • 存算分离
      • 连接集群
      • 计算组管理
        • 重启计算组
        • 创建计算组
      • 监控告警
        • 监控指标
        • 告警配置
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 停止与删除
        • 创建集群
        • 重置管理员密码
        • 集群详情
  • 服务等级协议SLA
    • 服务等级协议(SLA)v1.0
  • 产品概述
    • 系统架构
    • 产品特点
    • 产品介绍
  • 视频专区
    • 操作指南
    • 产品简介
  • 产品定价
    • 预付费
    • 计费说明
    • 后付费
  • 文档中心
  • arrow
  • 数据仓库PALO
  • arrow
  • 开发指南
  • arrow
  • 查询加速
  • arrow
  • 物化视图
  • arrow
  • 同步物化视图
本页目录
  • 什么是同步物化视图
  • 适用场景
  • 局限性
  • 使用物化视图
  • 创建物化视图
  • 检查物化视图是否创建完成
  • 取消创建物化视图
  • 查看物化视图的表结构
  • 查看物化视图的创建语句
  • 查询物化视图
  • 删除物化视图
  • 使用示例
  • 示例一:加速聚合查询
  • 示例二:匹配不同前缀索引
  • 示例三:预先过滤和表达式计算加速查询
  • 常见问题

同步物化视图

更新时间:2025-08-21

什么是同步物化视图

同步物化视图是将预先计算(根据定义好的 SELECT 语句)的数据集,存储在 PALO 中的一个特殊的表。PALO 会自动维护同步物化视图的数据,无论是新增数据还是删除数据,都能保证基表(Base Table)和物化视图表的数据同步更新并保持一致,只有同步完成后,相关命令才会结束,无需任何额外的人工维护成本。查询时,PALO 会自动匹配到最优的物化视图,并直接从物化视图中读取数据。

适用场景

  • 加速耗时的聚合运算
  • 查询需要匹配不同的前缀索引
  • 通过预先过滤减少需要扫描的数据量
  • 通过预先完成复杂的表达式计算来加速查询

局限性

  • 同步物化视图只支持针对单个表的 SELECT 语句,支持 WHERE、GROUP BY、ORDER BY 等子句,但不支持 JOIN、HAVING、LIMIT 子句和 LATERAL VIEW。
  • 与异步物化视图不同,不能直接查询同步物化视图。
  • SELECT 列表中,不能包含自增列,不能包含常量,不能有重复表达式,也不支持窗口函数。
  • 如果 SELECT 列表包含聚合函数,则聚合函数必须是根表达式(不支持 sum(a) + 1,支持 sum(a + 1)),且聚合函数之后不能有其他非聚合函数表达式(例如,SELECT x, sum(a) 可以,而 SELECT sum(a), x 不行)。
  • 如果删除语句的条件列在物化视图中存在,则不能进行删除操作。如果确实需要删除数据,则需要先将物化视图删除,然后才能删除数据。
  • 单表上过多的物化视图会影响导入的效率:导入数据时,物化视图和 Base 表的数据是同步更新的。如果一张表的物化视图表过多,可能会导致导入速度变慢,这就像单次导入需要同时导入多张表的数据一样。
  • 物化视图针对 Unique Key 数据模型时,只能改变列的顺序,不能起到聚合的作用。因此,在 Unique Key 模型上不能通过创建物化视图的方式对数据进行粗粒度的聚合操作。

使用物化视图

PALO 系统提供了一整套针对物化视图的 DDL 语法,包括创建、查看和删除。下面通过一个示例来展示如何使用物化视图加速聚合计算。假设用户有一张销售记录明细表,该表存储了每个交易的交易 ID、销售员、售卖门店、销售时间以及金额。建表语句和插入数据语句如下:

SQL
1-- 创建一个 test_db
2create database test_db;
3use test_db;
4
5-- 创建表
6create table sales_records
7(
8    record_id int, 
9    seller_id int, 
10    store_id int, 
11    sale_date date, 
12    sale_amt bigint
13) 
14distributed by hash(record_id) 
15properties("replication_num" = "1");
16
17-- 插入数据
18insert into sales_records values(1,1,1,"2020-02-02",1), (1,1,1,"2020-02-02",2);

创建物化视图

如果用户经常需要分析不同门店的销售量,则可以为 sales_records 表创建一个物化视图,该视图以售卖门店分组,并对相同售卖门店的销售额进行求和。创建语句如下:

SQL
1create materialized view store_amt as 
2select store_id, sum(sale_amt) from sales_records group by store_id;

检查物化视图是否创建完成

由于创建物化视图是一个异步操作,用户在提交创建物化视图任务后,可以通过命令异步地检查物化视图是否构建完成。命令如下:

SQL
1show alter table materialized view from test_db;

该命令的结果将显示该数据库的所有创建物化视图的任务。结果示例如下:

SQL
1+--------+---------------+---------------------+---------------------+---------------+-----------------+----------+---------------+----------+------+----------+---------+
2| JobId  | TableName     | CreateTime          | FinishTime          | BaseIndexName | RollupIndexName | RollupId | TransactionId | State    | Msg  | Progress | Timeout |
3+--------+---------------+---------------------+---------------------+---------------+-----------------+----------+---------------+----------+------+----------+---------+
4| 494349 | sales_records | 2020-07-30 20:04:56 | 2020-07-30 20:04:57 | sales_records | store_amt       | 494350   | 133107        | FINISHED |      | NULL     | 2592000 |
5+--------+---------------+---------------------+---------------------+---------------+-----------------+----------+---------------+----------+------+----------+---------+

其中,TableName 指的是物化视图的数据来源表,RollupIndexName 指的是物化视图的名称。比较重要的指标是 State。当创建物化视图任务的 State 变为 FINISHED 时,就说明这个物化视图已经创建成功了。这意味着,在执行查询时有可能自动匹配到这张物化视图。

取消创建物化视图

如果创建物化视图的后台异步任务还未结束,可以通过以下命令取消任务:

SQL
1cancel alter table materialized view from test_db.sales_records;

如果物化视图已经创建完毕,则无法通过该命令取消创建,但可以通过删除命令来删除物化视图。

查看物化视图的表结构

可以通过以下命令查看目标表上创建的所有物化视图及其表结构:

SQL
1desc sales_records all;

该命令的结果如下:

SQL
1+---------------+---------------+---------------------+--------+--------------+------+-------+---------+-------+---------+------------+-------------+
2| IndexName     | IndexKeysType | Field               | Type   | InternalType | Null | Key   | Default | Extra | Visible | DefineExpr | WhereClause |
3+---------------+---------------+---------------------+--------+--------------+------+-------+---------+-------+---------+------------+-------------+
4| sales_records | DUP_KEYS      | record_id           | INT    | INT          | Yes  | true  | NULL    |       | true    |            |             |
5|               |               | seller_id           | INT    | INT          | Yes  | true  | NULL    |       | true    |            |             |
6|               |               | store_id            | INT    | INT          | Yes  | true  | NULL    |       | true    |            |             |
7|               |               | sale_date           | DATE   | DATEV2       | Yes  | false | NULL    | NONE  | true    |            |             |
8|               |               | sale_amt            | BIGINT | BIGINT       | Yes  | false | NULL    | NONE  | true    |            |             |
9|               |               |                     |        |              |      |       |         |       |         |            |             |
10| store_amt     | AGG_KEYS      | mv_store_id         | INT    | INT          | Yes  | true  | NULL    |       | true    | `store_id` |             |
11|               |               | mva_SUM__`sale_amt` | BIGINT | BIGINT       | Yes  | false | NULL    | SUM   | true    | `sale_amt` |             |
12+---------------+---------------+---------------------+--------+--------------+------+-------+---------+-------+---------+------------+-------------+

可以看到,sales_records有一个名叫store_amt的物化视图,这个物化视图就是前面步骤创建的。

查看物化视图的创建语句

可以通过以下命令查看物化视图的创建语句:

SQL
1show create materialized view store_amt on sales_records;

输出如下:

SQL
1+---------------+-----------+------------------------------------------------------------------------------------------------------------+
2| TableName     | ViewName  | CreateStmt                                                                                                 |
3+---------------+-----------+------------------------------------------------------------------------------------------------------------+
4| sales_records | store_amt | create materialized view store_amt as select store_id, sum(sale_amt) from sales_records group by store_id |
5+---------------+-----------+------------------------------------------------------------------------------------------------------------+

查询物化视图

当物化视图创建完成后,用户在查询不同门店的销售量时,PALO 会直接从刚才创建的物化视图store_amt中读取聚合好的数据,从而提升查询效率。用户的查询依旧指定查询sales_records表,比如:

SQL
1select store_id, sum(sale_amt) from sales_records group by store_id;

上面的查询就能自动匹配到store_amt。用户可以通过下面的命令,检验当前查询是否匹配到了合适的物化视图。

SQL
1explain select store_id, sum(sale_amt) from sales_records group by store_id;

结果如下:

SQL
1+------------------------------------------------------------------------+
2| Explain String(Nereids Planner)                                        |
3+------------------------------------------------------------------------+
4| PLAN FRAGMENT 0                                                        |
5|   OUTPUT EXPRS:                                                        |
6|     store_id[#11]                                                      |
7|     sum(sale_amt)[#12]                                                 |
8|   PARTITION: HASH_PARTITIONED: mv_store_id[#7]                         |
9|                                                                        |
10|   HAS_COLO_PLAN_NODE: true                                             |
11|                                                                        |
12|   VRESULT SINK                                                         |
13|      MYSQL_PROTOCAL                                                    |
14|                                                                        |
15|   3:VAGGREGATE (merge finalize)(384)                                   |
16|   |  output: sum(partial_sum(mva_SUM__`sale_amt`)[#8])[#10]            |
17|   |  group by: mv_store_id[#7]                                         |
18|   |  sortByGroupKey:false                                              |
19|   |  cardinality=1                                                     |
20|   |  final projections: mv_store_id[#9], sum(mva_SUM__`sale_amt`)[#10] |
21|   |  final project output tuple id: 4                                  |
22|   |  distribute expr lists: mv_store_id[#7]                            |
23|   |                                                                    |
24|   2:VEXCHANGE                                                          |
25|      offset: 0                                                         |
26|      distribute expr lists:                                            |
27|                                                                        |
28| PLAN FRAGMENT 1                                                        |
29|                                                                        |
30|   PARTITION: HASH_PARTITIONED: record_id[#2]                           |
31|                                                                        |
32|   HAS_COLO_PLAN_NODE: false                                            |
33|                                                                        |
34|   STREAM DATA SINK                                                     |
35|     EXCHANGE ID: 02                                                    |
36|     HASH_PARTITIONED: mv_store_id[#7]                                  |
37|                                                                        |
38|   1:VAGGREGATE (update serialize)(374)                                 |
39|   |  STREAMING                                                         |
40|   |  output: partial_sum(mva_SUM__`sale_amt`[#1])[#8]                  |
41|   |  group by: mv_store_id[#0]                                         |
42|   |  sortByGroupKey:false                                              |
43|   |  cardinality=1                                                     |
44|   |  distribute expr lists:                                            |
45|   |                                                                    |
46|   0:VOlapScanNode(369)                                                 |
47|      TABLE: test_db.sales_records(store_amt), PREAGGREGATION: ON       |
48|      partitions=1/1 (sales_records)                                    |
49|      tablets=10/10, tabletList=266568,266570,266572 ...                |
50|      cardinality=1, avgRowSize=1805.0, numNodes=1                      |
51|      pushAggOp=NONE                                                    |
52|                                                                        |
53|                                                                        |
54| ========== MATERIALIZATIONS ==========                                 |
55|                                                                        |
56| MaterializedView                                                       |
57| MaterializedViewRewriteSuccessAndChose:                                |
58|   internal.test_db.sales_records.store_amt chose,                      |
59|                                                                        |
60| MaterializedViewRewriteSuccessButNotChose:                             |
61|   not chose: none,                                                     |
62|                                                                        |
63| MaterializedViewRewriteFail:                                           |
64|                                                                        |
65|                                                                        |
66| ========== STATISTICS ==========                                       |
67| planed with unknown column statistics                                  |
68+------------------------------------------------------------------------+

MaterializedViewRewriteSuccessAndChose 会展示被成功命中的物化视图,具体示例如下:

SQL
1+------------------------------------------------------------------------+
2| MaterializedViewRewriteSuccessAndChose:                                |  
3|   internal.test_db.sales_records.store_amt chose,                      |
4+------------------------------------------------------------------------+

上述内容表明,查询成功命中了名为 store_amt 的物化视图。值得注意的是,若目标表中无任何数据,则可能不会触发对物化视图的命中。

关于 MATERIALIZATIONS 的详细说明:

  • MaterializedViewRewriteSuccessAndChose:展示被成功选中并用于查询优化的物化视图。
  • MaterializedViewRewriteSuccessButNotChose:展示匹配成功但未被选中的物化视图(优化器会基于物化视图的成本进行最优选择,这些匹配但未被选中的物化视图,表示它们并非最优选择)。
  • MaterializedViewRewriteFail:展示未能匹配的物化视图,即原始 SQL 查询与现有物化视图无法匹配,因此无法使用物化视图进行优化。

删除物化视图

SQL
1drop materialized view store_amt on sales_records;

使用示例

示例一:加速聚合查询

业务场景: 计算广告的 UV(独立访客数)和 PV(页面访问量)。

  1. 假设用户的原始广告点击数据存储在 PALO 中,那么针对广告 PV 和 UV 的查询就可以通过创建带有 bitmap_union 的物化视图来提升查询速度。首先,创建一个存储广告点击数据明细的表,包含每条点击的点击时间、点击的广告、点击的渠道以及点击的用户。原始表创建语句如下:

    SQL
    1create table advertiser_view_record
    2(
    3    click_time datetime, 
    4    advertiser varchar(10), 
    5    channel varchar(10), 
    6    user_id int
    7) distributed by hash(user_id) properties("replication_num" = "1");
    8insert into advertiser_view_record values("2020-02-02 02:02:02",'a','a',1), ("2020-02-02 02:02:02",'a','a',2);
  2. 用户想要查询的是广告的 UV 值,也就是需要对相同广告的用户进行精确去重,查询语句一般为:

    SQL
    1select 
    2    advertiser, 
    3    channel, 
    4    count(distinct user_id) 
    5from 
    6    advertiser_view_record 
    7group by 
    8    advertiser, channel;
  3. 针对这种求 UV 的场景,可以创建一个带有 bitmap_union 的物化视图,以达到预先精确去重的效果。在 PALO 中,count(distinct) 聚合的结果和 bitmap_union_count 聚合的结果是完全一致的。因此,如果查询中涉及到 count(distinct),则通过创建带有 bitmap_union 聚合的物化视图可以加快查询。根据当前的使用场景,可以创建一个根据广告和渠道分组,对 user_id 进行精确去重的物化视图。

    SQL
    1create materialized view advertiser_uv as 
    2select 
    3    advertiser, 
    4    channel, 
    5    bitmap_union(to_bitmap(user_id)) 
    6from 
    7    advertiser_view_record 
    8group by 
    9    advertiser, channel;
  4. 当物化视图表创建完成后,查询广告 UV 时,PALO 就会自动从刚才创建好的物化视图 advertiser_uv 中查询数据。如果执行之前的 SQL 查询:

    SQL
    1select 
    2    advertiser, 
    3    channel, 
    4    count(distinct user_id) 
    5from 
    6    advertiser_view_record 
    7group by 
    8    advertiser, channel;
  5. 在选中物化视图后,实际的查询会转化为:

    SQL
    1select 
    2    advertiser, 
    3    channel, 
    4    bitmap_union_count(to_bitmap(user_id)) 
    5from 
    6    advertiser_uv 
    7group by 
    8    advertiser, channel;
  6. 通过 explain 命令检查查询是否匹配到了物化视图:

    SQL
    1explain select 
    2    advertiser, 
    3    channel, 
    4    count(distinct user_id) 
    5from 
    6    advertiser_view_record 
    7group by 
    8    advertiser, channel;
  7. 输出结果如下:

    SQL
    1+---------------------------------------------------------------------------------------------------------------------------------------------------------+
    2| Explain String(Nereids Planner)                                                                                                                         |
    3+---------------------------------------------------------------------------------------------------------------------------------------------------------+
    4| PLAN FRAGMENT 0                                                                                                                                         |
    5|   OUTPUT EXPRS:                                                                                                                                         |
    6|     advertiser[#13]                                                                                                                                     |
    7|     channel[#14]                                                                                                                                        |
    8|     count(DISTINCT user_id)[#15]                                                                                                                        |
    9|   PARTITION: HASH_PARTITIONED: mv_advertiser[#7], mv_channel[#8]                                                                                        |
    10|                                                                                                                                                         |
    11|   HAS_COLO_PLAN_NODE: true                                                                                                                              |
    12|                                                                                                                                                         |
    13|   VRESULT SINK                                                                                                                                          |
    14|      MYSQL_PROTOCAL                                                                                                                                     |
    15|                                                                                                                                                         |
    16|   3:VAGGREGATE (merge finalize)(440)                                                                                                                    |
    17|   |  output: bitmap_union_count(partial_bitmap_union_count(mva_BITMAP_UNION__to_bitmap_with_check(CAST(`user_id` AS bigint)))[#9])[#12]                 |
    18|   |  group by: mv_advertiser[#7], mv_channel[#8]                                                                                                        |
    19|   |  sortByGroupKey:false                                                                                                                               |
    20|   |  cardinality=1                                                                                                                                      |
    21|   |  final projections: mv_advertiser[#10], mv_channel[#11], bitmap_union_count(mva_BITMAP_UNION__to_bitmap_with_check(CAST(`user_id` AS bigint)))[#12] |
    22|   |  final project output tuple id: 4                                                                                                                   |
    23|   |  distribute expr lists: mv_advertiser[#7], mv_channel[#8]                                                                                           |
    24|   |                                                                                                                                                     |
    25|   2:VEXCHANGE                                                                                                                                           |
    26|      offset: 0                                                                                                                                          |
    27|      distribute expr lists:                                                                                                                             |
    28|                                                                                                                                                         |
    29| PLAN FRAGMENT 1                                                                                                                                         |
    30|                                                                                                                                                         |
    31|   PARTITION: HASH_PARTITIONED: user_id[#6]                                                                                                              |
    32|                                                                                                                                                         |
    33|   HAS_COLO_PLAN_NODE: false                                                                                                                             |
    34|                                                                                                                                                         |
    35|   STREAM DATA SINK                                                                                                                                      |
    36|     EXCHANGE ID: 02                                                                                                                                     |
    37|     HASH_PARTITIONED: mv_advertiser[#7], mv_channel[#8]                                                                                                 |
    38|                                                                                                                                                         |
    39|   1:VAGGREGATE (update serialize)(430)                                                                                                                  |
    40|   |  STREAMING                                                                                                                                          |
    41|   |  output: partial_bitmap_union_count(mva_BITMAP_UNION__to_bitmap_with_check(CAST(`user_id` AS bigint))[#2])[#9]                                      |
    42|   |  group by: mv_advertiser[#0], mv_channel[#1]                                                                                                        |
    43|   |  sortByGroupKey:false                                                                                                                               |
    44|   |  cardinality=1                                                                                                                                      |
    45|   |  distribute expr lists:                                                                                                                             |
    46|   |                                                                                                                                                     |
    47|   0:VOlapScanNode(425)                                                                                                                                  |
    48|      TABLE: test_db.advertiser_view_record(advertiser_uv), PREAGGREGATION: ON                                                                           |
    49|      partitions=1/1 (advertiser_view_record)                                                                                                            |
    50|      tablets=10/10, tabletList=266637,266639,266641 ...                                                                                                 |
    51|      cardinality=1, avgRowSize=0.0, numNodes=1                                                                                                          |
    52|      pushAggOp=NONE                                                                                                                                     |
    53|                                                                                                                                                         |
    54|                                                                                                                                                         |
    55| ========== MATERIALIZATIONS ==========                                                                                                                  |
    56|                                                                                                                                                         |
    57| MaterializedView                                                                                                                                        |
    58| MaterializedViewRewriteSuccessAndChose:                                                                                                                 |
    59|   internal.test_db.advertiser_view_record.advertiser_uv chose,                                                                                          |
    60|                                                                                                                                                         |
    61| MaterializedViewRewriteSuccessButNotChose:                                                                                                              |
    62|   not chose: none,                                                                                                                                      |
    63|                                                                                                                                                         |
    64| MaterializedViewRewriteFail:                                                                                                                            |
    65|                                                                                                                                                         |
    66|                                                                                                                                                         |
    67| ========== STATISTICS ==========                                                                                                                        |
    68| planed with unknown column statistics                                                                                                                   |
    69+---------------------------------------------------------------------------------------------------------------------------------------------------------+
  8. 在 explain 的结果中,可以看到 internal.test_db.advertiser_view_record.advertiser_uv chose。也就是说,查询会直接扫描物化视图的数据,说明匹配成功。其次,对于 user_id 字段求 count(distinct) 被改写为求 bitmap_union_count(to_bitmap),也就是通过 Bitmap 的方式来达到精确去重的效果。

示例二:匹配不同前缀索引

业务场景: 匹配前缀索引

用户的原始表包含三列(k1、k2、k3),其中 k1 和 k2 被设置为前缀索引列。当用户查询条件中包含where k1=1 and k2=2时,查询可以通过索引进行加速。然而,在某些情况下,用户的过滤条件可能无法匹配到前缀索引,例如 where k3=3,此时无法通过索引来提升查询速度。为了解决这个问题,可以创建一个以 k3 作为第一列的物化视图。

  1. 建表语句和插入数据语句如下:

    SQL
    1create table test_table
    2(
    3    k1 int, 
    4    k2 int, 
    5    k3 int, 
    6    kx date
    7) 
    8distributed by hash(k1) 
    9properties("replication_num" = "1");
    10
    11insert into test_table values(1,1,1,1),(3,3,3,3);
  2. 创建 k3 为前缀索引的物化视图:

    SQL
    1create materialized view mv_1 as SELECT k3, k2, k1 FROM test_table;
  3. 使用 EXPLAIN 检查查询是否匹配物化视图:

    SQL
    1explain select k1, k2, k3 from test_table where k3=3;
  4. 输出结果如下:

    SQL
    1+----------------------------------------------------------+
    2| Explain String(Nereids Planner)                          |
    3+----------------------------------------------------------+
    4| PLAN FRAGMENT 0                                          |
    5|   OUTPUT EXPRS:                                          |
    6|     k1[#7]                                               |
    7|     k2[#8]                                               |
    8|     k3[#9]                                               |
    9|   PARTITION: HASH_PARTITIONED: mv_k1[#2]                 |
    10|                                                          |
    11|   HAS_COLO_PLAN_NODE: false                              |
    12|                                                          |
    13|   VRESULT SINK                                           |
    14|      MYSQL_PROTOCAL                                      |
    15|                                                          |
    16|   0:VOlapScanNode(256)                                   |
    17|      TABLE: test_db.test_table(mv_1), PREAGGREGATION: ON |
    18|      PREDICATES: (mv_k3[#0] = 3)                         |
    19|      partitions=1/1 (test_table)                         |
    20|      tablets=10/10, tabletList=271177,271179,271181 ...  |
    21|      cardinality=1, avgRowSize=0.0, numNodes=1           |
    22|      pushAggOp=NONE                                      |
    23|      final projections: mv_k1[#2], mv_k2[#1], mv_k3[#0]  |
    24|      final project output tuple id: 2                    |
    25|                                                          |
    26|                                                          |
    27| ========== MATERIALIZATIONS ==========                   |
    28|                                                          |
    29| MaterializedView                                         |
    30| MaterializedViewRewriteSuccessAndChose:                  |
    31|   internal.test_db.test_table.mv_1 chose,                |
    32|                                                          |
    33| MaterializedViewRewriteSuccessButNotChose:               |
    34|   not chose: none,                                       |
    35|                                                          |
    36| MaterializedViewRewriteFail:                             |
    37|                                                          |
    38|                                                          |
    39| ========== STATISTICS ==========                         |
    40| planed with unknown column statistics                    |
    41+----------------------------------------------------------+
  5. 在 EXPLAIN 的结果中,可以看到 internal.test_db.test_table.mv_1 chose,这表明查询成功命中了物化视图。

示例三:预先过滤和表达式计算加速查询

业务场景: 需要提前过滤数据或加速表达式计算。

  1. 建表和插入数据语句如下:

    SQL
    1create table d_table (
    2   k1 int null,
    3   k2 int not null,
    4   k3 bigint null,
    5   k4 date null
    6)
    7duplicate key (k1,k2,k3)
    8distributed BY hash(k1) buckets 3
    9properties("replication_num" = "1");
    10
    11insert into d_table select 1,1,1,'2020-02-20';
    12insert into d_table select 2,2,2,'2021-02-20';
    13insert into d_table select 3,-3,null,'2022-02-20';
  2. 创建物化视图:

    SQL
    1-- mv1 提前进行表达式计算
    2create materialized view mv1 as 
    3select 
    4    abs(k1)+k2+1,        
    5    sum(abs(k2+2)+k3+3) 
    6from 
    7    d_table 
    8group by 
    9    abs(k1)+k2+1;
    10
    11-- mv2 提前用 where 表达式过滤以减少物化视图中的数据量
    12create materialized view mv2 as 
    13select 
    14    year(k4),
    15    month(k4) 
    16from 
    17    d_table 
    18where 
    19    year(k4) = 2020;
  3. 通过以下查询测试检测是否成功命中物化视图:

    SQL
    1-- 命中 mv1
    2select 
    3    abs(k1)+k2+1,
    4    sum(abs(k2+2)+k3+3) 
    5from 
    6    d_table 
    7group by 
    8    abs(k1)+k2+1;
    9    
    10-- 命中 mv1
    11select 
    12    bin(abs(k1)+k2+1),
    13    sum(abs(k2+2)+k3+3) 
    14from 
    15    d_table 
    16group by 
    17    bin(abs(k1)+k2+1);
    18
    19-- 命中 mv2
    20select 
    21    year(k4) + month(k4) 
    22from 
    23    d_table 
    24where 
    25    year(k4) = 2020;
    26
    27-- 命中原始表 d_table 不会命中 mv2,因为 where 条件不匹配
    28select 
    29    year(k4),
    30    month(k4) 
    31from 
    32    d_table;

常见问题

  1. 当创建好物化视图后,为什么没有改写成功?

    如果发现没有匹配的数据,可能是因为物化视图还处于构建过程中。此时,可以使用以下命令来查看物化视图的构建状态:

    SQL
    1show alter table materialized view from test_db;

    如果查询结果显示status字段不是FINISHED,那么需要等待,直到状态变为FINISHED后,物化视图才会变得可用。

  2. 从 2.x 升级到 3.0.0,为什么之前同步物化视图不能命中了?

    自 3.0.0 版本起,默认使用基于 plan 结构信息的方式对同步物化视图进行透明改写,控制开关如下,如果发现之前 2.x 能命中但是 3.0.0 不能命中。 把如下开关关闭,如下开关默认开启。

    SQL
    1`SET enable_sync_mv_cost_based_rewrite = true;`

上一篇
Hint
下一篇
物化视图概览