统计信息

数据仓库 PALO

  • 功能发布记录
  • 操作手册1
    • LDAP认证
    • 时区
    • 使用S3-SDK访问对象存储
    • 权限管理
    • 物化视图
    • 变量
    • 资源管理
    • 数据更新与删除
      • 标记删除
      • Sequence-Column
      • 数据更新
      • 数据删除
    • 备份与恢复
      • 备份与恢复
    • 数据导出1
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 数据导出概述
      • Export
    • 数据导出
      • 全量数据导出
      • 导出查询结果集
      • 导出总览
      • 导出数据到外部表
    • 查询加速1
      • 查询缓存
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
    • 数据导入
      • JSON格式数据导入说明
      • 导入本地数据
      • 导入BOS中的数据
      • 导入事务和原子性
      • 通过外部表同步数据
      • 使用JDBC同步数据
      • 列的映射、转换与过滤
      • 订阅Kafka日志
      • 严格模式
      • 导入总览
    • 数据更新与删除1
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 数据导入1
      • 高并发导入优化(Group Commit)
      • 导入概览
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 数据源
        • Kafka
        • S3 兼容存储
        • 从其他 TP 系统迁移数据
        • HDFS
        • 从其他 AP 系统迁移数据
        • Flink
        • 本地文件
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
  • 开发指南
    • 迁移ClickHouse数据
    • Doris集群间数据迁移
    • 数据更新与删除
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 查询加速
      • 查询缓存
      • Colocation Join
      • 高并发点查
      • Hint
        • Hint 概述
        • Leading Hint
        • Distribute Hint
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
      • 高效去重
        • BITMAP 精准去重
        • HLL 近似去重
      • 优化技术原理
        • TOPN 查询优化
        • 统计信息
        • Pipeline 执行引擎
        • 查询优化器介绍
        • Runtime Filter
      • 查询调优概述
        • 调优概述
        • 诊断工具
        • 分析工具
        • 调优流程
      • 查询优化实践
        • 常见调优参数
        • 计划调优
          • 使用 Hint 控制代价改写
          • 使用异步物化视图透明改写
          • 使用 Leading Hint 控制 Join 顺序
          • 优化表 Schema 设计
          • 使用分区裁剪优化扫表
          • 优化索引设计和使用
          • 使用 Hint 调整 Join Shuffle 方式
          • DML 计划调优
          • 使用 Colocate Group 优化 Join
          • 使用同步物化视图透明改写
          • 使用 SQL Cache 加速查询
        • 执行调优
          • 数据倾斜处理
          • RuntimeFilter 的等待时间调整
          • 并行度调优
    • 数据查询
      • 连接(JOIN)
      • 子查询
      • 复杂类型查询
      • 列转行 (Lateral View)
      • MySQL 兼容性
      • 聚合多维分析
      • 分析函数(窗口函数)
      • 公用表表达式(CTE)
      • 自定义函数
        • 别名函数
        • Java UDF, UDAF, UDTF
    • 数据导出
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 最佳实践
      • 数据导出概述
      • Export
    • 数据导入
      • 高并发导入优化(Group Commit)
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 导入最佳实践
      • 数据源
        • Kafka
        • Snowflake
        • S3 兼容存储
        • Google Cloud Storage
        • 从其他 TP 系统迁移数据
        • Azure Storage
        • 腾讯云 COS
        • MinIO
        • HDFS
        • 阿里云 OSS
        • 华为云 OBS
        • 从其他 AP 系统迁移数据
        • Flink
        • Redshift
        • Amazon S3
        • 本地文件
        • BigQuery
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
    • BI工具接入
      • Sugar
      • Navicat
      • Tableau
      • DBeaver
      • 永洪BI
      • FineBI(帆软)
    • 数据库连接
      • 通过 MySQL 协议连接
      • 基于 Arrow Flight SQL 的高速数据传输链路
    • 湖仓一体
      • 分析 S3或HDFS 上的文件
      • 湖仓一体概述
      • SQL 方言兼容
      • 弹性计算节点
      • 云服务认证接入
      • 元数据缓存
      • 外表统计信息
      • 数据缓存
      • 数据库分析
        • MySQL
        • JDBC Catalog
        • Oracle
        • OceanBase
        • SAP HANA
        • 阿里云 MaxCompute
        • ClickHouse
        • PostgreSQL
        • IBM Db2
        • SQL Server
        • Elasticsearch
      • 湖仓一体最佳实践
        • 使用 PALO 和 Paimon
        • 使用 PALO 和 Iceberg
        • 使用 PALO 和 Hudi
        • 使用 PALO 和 LakeSoul
      • 数据湖构建
        • Iceberg
        • Hive
      • 数据湖分析
        • Hudi Catalog
        • 阿里云 DLF
        • Iceberg Catalog
        • Paimon Catalog
        • Hive Catalog
    • 数据表设计
      • 行业混存
      • 数据压缩
      • Schema 变更
      • 数据类型
      • 自增列
      • 概览
      • 数据库建表最佳实践
      • 冷热数据分层
        • SSD 和 HDD 层级存储
        • 远程存储
        • 冷热数据分层概述
      • 表索引
        • 倒排索引
        • 前缀索引与排序键
        • N-Gram 索引
        • BloomFilter 索引
        • 索引概述
      • 数据划分
        • 数据分桶
        • 数据分布概念
        • 动态分区
        • 自动分区
        • 手动分区
        • 常见文档
      • 数据模型
        • 使用注意
        • 模型概述
        • 主键模型
        • 明细模型
        • 聚合模型
  • 版本发布历史
    • 百度数据仓库 Palo 2.0 版本全新发布
  • SQL手册
    • 字面常量
    • 别名
    • SQL-手册
    • 数据类型
    • SQL语句
    • 注释
    • 内置函数
    • 白名单管理
    • SQL操作符
    • 内置函数
      • 聚合函数
      • 位操作函数
      • 字符串函数
      • 条件函数
      • 数学函数
      • JSON解析函数
      • 类型转换函数
      • 格式转换函数
      • 通用函数
      • 时间和日期函数
      • BITMAP函数
      • 窗口函数
      • 哈希函数
      • HLL函数
    • 语法帮助
      • DML
        • INSERT
        • ROUTINE-LOAD
        • RESTORE
        • SELECT-INTO-OUTFILE
        • ALTER-ROUTINE-LOAD
        • BROKER-LOAD
        • BACKUP
        • EXPORT
        • STREAM-LOAD
      • DDL
        • CREATE-FILE
        • DROP-RESOURCE
        • CREATE-RESOURCE
        • CREATE-MATERIALIZED-VIEW
        • DROP-RESROUCE
        • CREATE-TABLE
        • DROP-REPOSITORY
        • CREATE-REPOSITORY
        • CREATE-ODBC-TABLE
      • 信息查看语句
        • SHOW-BACKUP
        • SHOW-ALTER-TABLE-MATERIALIZED-VIEW
        • SHOW-SNAPSHOT
        • SHOW-ROUTINE-LOAD
        • SHOW-CREATE-ROUTINE-LOAD
        • SHOW-ROLES
        • SHOW-GRANTS
        • SHOW-EXPORT
        • SHOW-ROUTINE-LOAD-TASK
        • SHOW-REPOSITORIES
        • SHOW-LOAD
        • SHOW-RESOURCES
        • SHOW-RESTORE
        • SHOW-PROPERTY
        • SHOW-FILE
      • 辅助命令
        • PAUSE-ROUTINE-LOAD
        • STOP-ROUTINE-LOAD
        • ALTER-ROUTINE-LOAD
        • CANCEL-LOAD
        • RESUME-ROUTINE-LOAD
      • 账户管理
        • SET-PROPERTY
        • REVOKE
        • GRANT
        • CREATE-ROLE
        • DROP-ROLE
        • CREATE-USER
        • DROP-USER
        • SET-PASSWORD
  • 快速入门
    • 快速上手
    • 存算分离
    • 存算一体
  • 典型实践
    • 如何开启Debug日志
    • 导入分析
    • 查询分析
  • 操作手册
    • 权限和子用户
    • 存算一体
      • 连接集群
      • 查询分析
      • 监控告警
        • 监控指标
        • 告警配置
      • 备份恢复
        • 通过管理页面备份与恢复
        • 备份与恢复
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 集群创建
        • 停止与删除
        • 重置管理员密码
        • 集群扩缩容
        • 集群详情
    • 存算分离
      • 连接集群
      • 计算组管理
        • 重启计算组
        • 创建计算组
      • 监控告警
        • 监控指标
        • 告警配置
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 停止与删除
        • 创建集群
        • 重置管理员密码
        • 集群详情
  • 服务等级协议SLA
    • 服务等级协议(SLA)v1.0
  • 产品概述
    • 系统架构
    • 产品特点
    • 产品介绍
  • 视频专区
    • 操作指南
    • 产品简介
  • 产品定价
    • 预付费
    • 计费说明
    • 后付费
所有文档
menu
没有找到结果,请重新输入

数据仓库 PALO

  • 功能发布记录
  • 操作手册1
    • LDAP认证
    • 时区
    • 使用S3-SDK访问对象存储
    • 权限管理
    • 物化视图
    • 变量
    • 资源管理
    • 数据更新与删除
      • 标记删除
      • Sequence-Column
      • 数据更新
      • 数据删除
    • 备份与恢复
      • 备份与恢复
    • 数据导出1
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 数据导出概述
      • Export
    • 数据导出
      • 全量数据导出
      • 导出查询结果集
      • 导出总览
      • 导出数据到外部表
    • 查询加速1
      • 查询缓存
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
    • 数据导入
      • JSON格式数据导入说明
      • 导入本地数据
      • 导入BOS中的数据
      • 导入事务和原子性
      • 通过外部表同步数据
      • 使用JDBC同步数据
      • 列的映射、转换与过滤
      • 订阅Kafka日志
      • 严格模式
      • 导入总览
    • 数据更新与删除1
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 数据导入1
      • 高并发导入优化(Group Commit)
      • 导入概览
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 数据源
        • Kafka
        • S3 兼容存储
        • 从其他 TP 系统迁移数据
        • HDFS
        • 从其他 AP 系统迁移数据
        • Flink
        • 本地文件
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
  • 开发指南
    • 迁移ClickHouse数据
    • Doris集群间数据迁移
    • 数据更新与删除
      • 事务
      • 数据更新
        • 主键模型的导入更新
        • 主键模型的 Update 更新
        • 数据更新概述
        • 主键模型的更新并发控制
        • 聚合模型的导入更新
      • 数据删除
        • 删除操作概述
        • Truncate 操作
        • 表原子替换
        • Delete 操作
        • 基于导入的批量删除
        • 临时分区
    • 查询加速
      • 查询缓存
      • Colocation Join
      • 高并发点查
      • Hint
        • Hint 概述
        • Leading Hint
        • Distribute Hint
      • 物化视图
        • 同步物化视图
        • 物化视图概览
        • 异步物化视图
          • 异步物化视图常见问题
          • 最佳实践
          • 异步物化视图概述
          • 创建、查询与维护异步物化视图
      • 高效去重
        • BITMAP 精准去重
        • HLL 近似去重
      • 优化技术原理
        • TOPN 查询优化
        • 统计信息
        • Pipeline 执行引擎
        • 查询优化器介绍
        • Runtime Filter
      • 查询调优概述
        • 调优概述
        • 诊断工具
        • 分析工具
        • 调优流程
      • 查询优化实践
        • 常见调优参数
        • 计划调优
          • 使用 Hint 控制代价改写
          • 使用异步物化视图透明改写
          • 使用 Leading Hint 控制 Join 顺序
          • 优化表 Schema 设计
          • 使用分区裁剪优化扫表
          • 优化索引设计和使用
          • 使用 Hint 调整 Join Shuffle 方式
          • DML 计划调优
          • 使用 Colocate Group 优化 Join
          • 使用同步物化视图透明改写
          • 使用 SQL Cache 加速查询
        • 执行调优
          • 数据倾斜处理
          • RuntimeFilter 的等待时间调整
          • 并行度调优
    • 数据查询
      • 连接(JOIN)
      • 子查询
      • 复杂类型查询
      • 列转行 (Lateral View)
      • MySQL 兼容性
      • 聚合多维分析
      • 分析函数(窗口函数)
      • 公用表表达式(CTE)
      • 自定义函数
        • 别名函数
        • Java UDF, UDAF, UDTF
    • 数据导出
      • SELECT INTO OUTFILE
      • MySQL Dump
      • 最佳实践
      • 数据导出概述
      • Export
    • 数据导入
      • 高并发导入优化(Group Commit)
      • 异常数据处理
      • 导入高可用性
      • 导入时实现数据转换
      • 导入最佳实践
      • 数据源
        • Kafka
        • Snowflake
        • S3 兼容存储
        • Google Cloud Storage
        • 从其他 TP 系统迁移数据
        • Azure Storage
        • 腾讯云 COS
        • MinIO
        • HDFS
        • 阿里云 OSS
        • 华为云 OBS
        • 从其他 AP 系统迁移数据
        • Flink
        • Redshift
        • Amazon S3
        • 本地文件
        • BigQuery
      • 导入方式
        • Broker Load
        • MySQL Load
        • Insert Into Values
        • Stream Load
        • Insert Into Select
        • Routine Load
      • 文件格式
        • CSV
        • JSON
        • Parquet
        • ORC
      • 复杂数据类型
        • MAP
        • Variant
        • JSON
        • STRUCT
        • Bitmap
        • HLL
        • ARRAY
    • BI工具接入
      • Sugar
      • Navicat
      • Tableau
      • DBeaver
      • 永洪BI
      • FineBI(帆软)
    • 数据库连接
      • 通过 MySQL 协议连接
      • 基于 Arrow Flight SQL 的高速数据传输链路
    • 湖仓一体
      • 分析 S3或HDFS 上的文件
      • 湖仓一体概述
      • SQL 方言兼容
      • 弹性计算节点
      • 云服务认证接入
      • 元数据缓存
      • 外表统计信息
      • 数据缓存
      • 数据库分析
        • MySQL
        • JDBC Catalog
        • Oracle
        • OceanBase
        • SAP HANA
        • 阿里云 MaxCompute
        • ClickHouse
        • PostgreSQL
        • IBM Db2
        • SQL Server
        • Elasticsearch
      • 湖仓一体最佳实践
        • 使用 PALO 和 Paimon
        • 使用 PALO 和 Iceberg
        • 使用 PALO 和 Hudi
        • 使用 PALO 和 LakeSoul
      • 数据湖构建
        • Iceberg
        • Hive
      • 数据湖分析
        • Hudi Catalog
        • 阿里云 DLF
        • Iceberg Catalog
        • Paimon Catalog
        • Hive Catalog
    • 数据表设计
      • 行业混存
      • 数据压缩
      • Schema 变更
      • 数据类型
      • 自增列
      • 概览
      • 数据库建表最佳实践
      • 冷热数据分层
        • SSD 和 HDD 层级存储
        • 远程存储
        • 冷热数据分层概述
      • 表索引
        • 倒排索引
        • 前缀索引与排序键
        • N-Gram 索引
        • BloomFilter 索引
        • 索引概述
      • 数据划分
        • 数据分桶
        • 数据分布概念
        • 动态分区
        • 自动分区
        • 手动分区
        • 常见文档
      • 数据模型
        • 使用注意
        • 模型概述
        • 主键模型
        • 明细模型
        • 聚合模型
  • 版本发布历史
    • 百度数据仓库 Palo 2.0 版本全新发布
  • SQL手册
    • 字面常量
    • 别名
    • SQL-手册
    • 数据类型
    • SQL语句
    • 注释
    • 内置函数
    • 白名单管理
    • SQL操作符
    • 内置函数
      • 聚合函数
      • 位操作函数
      • 字符串函数
      • 条件函数
      • 数学函数
      • JSON解析函数
      • 类型转换函数
      • 格式转换函数
      • 通用函数
      • 时间和日期函数
      • BITMAP函数
      • 窗口函数
      • 哈希函数
      • HLL函数
    • 语法帮助
      • DML
        • INSERT
        • ROUTINE-LOAD
        • RESTORE
        • SELECT-INTO-OUTFILE
        • ALTER-ROUTINE-LOAD
        • BROKER-LOAD
        • BACKUP
        • EXPORT
        • STREAM-LOAD
      • DDL
        • CREATE-FILE
        • DROP-RESOURCE
        • CREATE-RESOURCE
        • CREATE-MATERIALIZED-VIEW
        • DROP-RESROUCE
        • CREATE-TABLE
        • DROP-REPOSITORY
        • CREATE-REPOSITORY
        • CREATE-ODBC-TABLE
      • 信息查看语句
        • SHOW-BACKUP
        • SHOW-ALTER-TABLE-MATERIALIZED-VIEW
        • SHOW-SNAPSHOT
        • SHOW-ROUTINE-LOAD
        • SHOW-CREATE-ROUTINE-LOAD
        • SHOW-ROLES
        • SHOW-GRANTS
        • SHOW-EXPORT
        • SHOW-ROUTINE-LOAD-TASK
        • SHOW-REPOSITORIES
        • SHOW-LOAD
        • SHOW-RESOURCES
        • SHOW-RESTORE
        • SHOW-PROPERTY
        • SHOW-FILE
      • 辅助命令
        • PAUSE-ROUTINE-LOAD
        • STOP-ROUTINE-LOAD
        • ALTER-ROUTINE-LOAD
        • CANCEL-LOAD
        • RESUME-ROUTINE-LOAD
      • 账户管理
        • SET-PROPERTY
        • REVOKE
        • GRANT
        • CREATE-ROLE
        • DROP-ROLE
        • CREATE-USER
        • DROP-USER
        • SET-PASSWORD
  • 快速入门
    • 快速上手
    • 存算分离
    • 存算一体
  • 典型实践
    • 如何开启Debug日志
    • 导入分析
    • 查询分析
  • 操作手册
    • 权限和子用户
    • 存算一体
      • 连接集群
      • 查询分析
      • 监控告警
        • 监控指标
        • 告警配置
      • 备份恢复
        • 通过管理页面备份与恢复
        • 备份与恢复
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 集群创建
        • 停止与删除
        • 重置管理员密码
        • 集群扩缩容
        • 集群详情
    • 存算分离
      • 连接集群
      • 计算组管理
        • 重启计算组
        • 创建计算组
      • 监控告警
        • 监控指标
        • 告警配置
      • 权限管理
        • 集群权限
        • 控制台权限
      • 集群管理
        • 停止与删除
        • 创建集群
        • 重置管理员密码
        • 集群详情
  • 服务等级协议SLA
    • 服务等级协议(SLA)v1.0
  • 产品概述
    • 系统架构
    • 产品特点
    • 产品介绍
  • 视频专区
    • 操作指南
    • 产品简介
  • 产品定价
    • 预付费
    • 计费说明
    • 后付费
  • 文档中心
  • arrow
  • 数据仓库PALO
  • arrow
  • 开发指南
  • arrow
  • 查询加速
  • arrow
  • 优化技术原理
  • arrow
  • 统计信息
本页目录
  • 统计信息的收集
  • 手动收集
  • 自动收集
  • 外表收集
  • 统计信息作业管理
  • 查看统计作业
  • 查看统计任务
  • 查看统计信息
  • 查看表信息概况
  • 终止统计作业
  • 删除统计信息
  • 会话变量及配置项
  • 会话变量
  • FE 配置项
  • 常见 FAQ
  • Q1:如何查看一张表是否收集了统计信息以及内容是否正确?
  • Q2:为什么一张表一直没有自动收集统计信息?
  • Q3:为什么部分列没有统计信息?
  • Q4:报错 "Stats table not available, please make sure your cluster status is normal"
  • Q5:如何解决统计信息收集不及时问题?
  • Q6:自动收集时资源占用太多,该如何解决?

统计信息

更新时间:2025-08-21

从 2.0 版本开始,PALO 在优化器中加入了 CBO 的能力。统计信息是 CBO 的基石,其准确性直接决定了代价估算的准确性,对于选择最优 Plan 至关重要。本文主要介绍统计信息的收集和管理方法、相关配置项以及常见问题。

统计信息的收集

PALO 默认会开启内表的自动抽样收集,因此绝大多数情况下用户不用关注统计信息的收集。PALO 收集统计信息的对象是列,它会在表级别收集每一列的统计信息,收集的内容包括:

信息 描述
row_count 总行数
data_size 列的总数据量
avg_size_byte 列的平均每行数据量
ndv 不同值数量
min 最小值
max 最大值
null_count 空值数量

目前,系统仅支持收集基本类型列的统计信息,包括 BOOLEAN、TINYINT、SMALLINT、INT、BIGINT、LARGEINT、FLOAT、DOUBLE、DATE、DATETIME、STRING、VARCHAR、TEXT 等。

复杂类型的列会被跳过,包括 JSONB、VARIANT、MAP、STRUCT、ARRAY、HLL、BITMAP、TIME、TIMEV2 等。

统计信息的收集方式有手动和自动两种,收集的结果会保存在 internal.__internal_schema.column_statistics 表中。下面将详细介绍这两种收集方式。

手动收集

PALO 支持用户通过提交 ANALYZE 语句来手动触发统计信息的收集和更新。

1. 语法

SQL
1ANALYZE < TABLE table_name > | < DATABASE db_name > 
2    [ (column_name [, ...]) ]
3    [ [ WITH SYNC ] [ WITH SAMPLE PERCENT | ROWS ] ];

其中各参数解释如下:

  • table_name: 指定要收集统计信息的目标表。
  • column_name: 指定要收集统计信息的目标列。这些列必须存在于 table_name 中,多个列名称之间用逗号分隔。如果不指定列名,则会对表中的所有列进行统计信息的收集。
  • sync:选择同步收集统计信息。如果指定此选项,收集完成后才会返回结果;如果不指定,则会异步执行并返回一个 JOB ID,用户可以通过该 JOB ID 查看收集任务的状态。
  • sample percent | rows:选择抽样收集统计信息。可以指定抽样比例或者抽样行数。如果不指定 WITH SAMPLE,则会对表进行全量采样。对于较大的表(例如超过 5 GiB),从集群资源利用的角度出发,通常建议采用抽样收集。为了保证统计信息的准确性,采样的行数建议不低于 400 万行。

2. 示例

对 lineitem 表的所有列进行全量收集:

SQL
1ANALYZE TABLE lineitem;

对 tpch100 数据库中所有表的所有列进行全量收集:

SQL
1ANALYZE DATABASE tpch100;

对 lineitem 表的所有列按照 10% 的比例进行抽样收集(注意这里应更改为 PERCENT 以符合语法说明):

SQL
1ANALYZE TABLE lineitem WITH SAMPLE ROWS 100000;

对 lineitem 表的 l_orderkey 和 l_linenumber 列按照采样 100000 行进行收集:

SQL
1ANALYZE TABLE lineitem (l_orderkey, l_linenumber) WITH SAMPLE ROWS 100000;

自动收集

自动收集功能自 2.0.3 版本起开始支持,且默认全天开启。用户可以通过设置 ENABLE_AUTO_ANALYZE 变量来控制该功能的启用或停用:

SQL
1SET GLOBAL ENABLE_AUTO_ANALYZE = TRUE; // 打开自动收集
2SET GLOBAL ENABLE_AUTO_ANALYZE = FALSE; // 关闭自动收集

在启用状态下,后台线程会定期扫描集群中 InternalCatalog 下的所有库表。对于需要收集统计信息的表,系统会自动创建并执行收集作业,无需用户手动干预。

需要注意的是,为避免自动收集大宽表造成过多资源占用,默认不收集宽度超过 300 列的表。用户可以通过修改 Session 变量 auto_analyze_table_width_threshold 的值来调整这一宽度上限,例如将其设置为 350:

SQL
1SET GLOBAL auto_analyze_table_width_threshold = 350;

自动收集的默认轮询间隔为 5 分钟(此间隔可通过 fe.conf 中的 auto_check_statistics_in_minutes 配置项进行调整)。默认情况下,集群启动 5 分钟后开始第一轮遍历。当所有需要收集的表完成收集后,后台线程会休眠 5 分钟,然后开启第二轮遍历,以此类推。因此不能保证一张表在 5 分钟内一定能收集到统计信息,因为遍历一轮库表的时间是不确定的。在表较多且数据量较大的情况下,遍历一轮的时间可能会较长。

当轮询到一张表时,系统会首先判断该表是否需要收集统计信息。如果需要,则创建收集作业并开始收集;否则,跳过该表并继续轮询下一张。以下任意条件满足时,表明该表需要重新收集统计信息:

  1. 表中存在无统计信息的列;
  2. 表的健康度低于阈值(默认为 90,可通过 table_stats_health_threshold 变量进行调整)。健康度表示从上次收集统计信息到当前时刻,表中数据保持不变的比例:100 表示完全没有变化;0 表示全部改变;当健康度低于 90 时,表示当前的统计信息已有较大偏差,需要重新收集。通过健康度评估,可以降低不必要的重复收集,从而节省系统资源。

为了降低后台作业的开销并提高收集速度,自动收集采用采样收集方式,默认采样 4194304,即 2^22 行。如果用户希望采样更多行以获得更准确的数据分布信息,可通过调整参数 huge_table_default_sample_rows 来增加采样行数。

如果担心自动收集作业会对业务造成干扰,可根据自身需求通过设置参数 auto_analyze_start_time 和 auto_analyze_end_time 来指定自动收集作业在业务负载较低的时间段内执行。此外,也可以通过将参数 enable_auto_analyze 设置为 false 来完全停用此功能。

SQL
1SET GLOBAL auto_analyze_start_time = "03:00:00"; // 把起始时间设置为凌晨3点
2SET GLOBAL auto_analyze_end_time = "14:00:00"; // 把终止时间设置为下午2点

外表收集

外表通常为 Hive、Iceberg、JDBC 以及其他类型的表。

  • 在手动收集方面,Hive, Iceberg 和 JDBC 表均支持手动收集统计信息。其中,Hive 表支持手动进行全量和采样收集,而 Iceberg 和 JDBC 表则仅支持手动全量收集。其他类型的外表则不支持手动收集统计信息。
  • 在自动收集方面,当前仅 Hive 表提供支持。

需要注意的是,外部 Catalog 默认情况下不参与自动收集。这是因为外部 Catalog 通常包含大量历史数据,如果进行自动收集,可能会占用过多资源。然而,你可以通过设置 Catalog 的属性来启用或禁用外部 Catalog 的自动收集功能。

SQL
1ALTER CATALOG external_catalog SET PROPERTIES ('enable.auto.analyze'='true'); // 打开自动收集
2ALTER CATALOG external_catalog SET PROPERTIES ('enable.auto.analyze'='false'); // 关闭自动收集

外表没有健康度的概念。在启用了 Catalog 的自动收集属性后,为了避免频繁收集,对于一张外表,系统默认在 24 小时之内只对其进行一次自动收集。你可以通过 external_table_auto_analyze_interval_in_millis 变量来控制外表的最小收集时间间隔。

在默认状态下,外表不会收集统计信息。但是对于 Hive 和 Iceberg 表,系统会尝试通过 Hive Metastore 和 Iceberg API 来获取行数信息。

1. 对于 Hive 表

系统首先尝试从 Hive 表的 Parameters 中获取 numRows 或 totalSize 的信息:

  • 如果找到 numRows,则将其值作为表的行数。
  • 如果没有找到 numRows,但找到了 totalSize 信息,则根据表的 Schema 和 totalSize 来估算表的行数。
  • 如果 totalSize 也没有,默认情况下,系统会根据 Hive 表对应的文件大小和 Schema 来估算行数。如果担心获取文件大小占用过多资源,可以通过设置以下变量来关闭这一功能:

    SQL
    1SET GLOBAL enable_get_row_count_from_file_list = FALSE

2. 对于 Iceberg 表

系统会调用 Iceberg 的 snapshot API 来获取 total-records 和 total-position-deletes 信息,以计算表的行数。

3. 对于 Paimon 表

系统会调用 Paimon 的 scan API 来获取每个 Split 包含的行数,并对 Split 行数求和来计算表的行数。

4. 对于 JDBC 表

系统会调用 JDBC 后端对应数据库的行数获取语句来获取表的行数。只有在后端数据库收集了表的行数信息的情况下,才可以获取到。当前支持获取 MySQL, Oracle, Postgresql 和 SQLServer 表的行数。

5. 对于其他外表

系统目前不支持行数的自动获取和估算。

用户可以通过以下命令来查看外表估算的行数(见查看表信息概况章节):

SQL
1SHOW table stats table_name;
  • 如果 row_count 显示为 -1,则表示未能获取到行数信息或者表为空。

统计信息作业管理

查看统计作业

通过 SHOW ANALYZE 来查看统计信息收集作业的信息。目前,系统仅保留 20000 个历史作业的信息。请注意,仅异步作业的信息可通过该命令查看,同步作业(使用 WITH SYNC)不保留历史作业信息。

1. 语法:

SQL
1SHOW [AUTO] ANALYZE < table_name | job_id >
2    [ WHERE STATE = < "PENDING" | "RUNNING" | "FINISHED" | "FAILED" > ];
  • AUTO:展示自动收集历史作业信息。如果不指定,则展示手动 ANALYZE 历史作业信息。
  • table_name:表名,指定后可查看该表对应的统计作业信息。可以是 db_name.table_name 形式。不指定时返回所有统计作业信息。
  • job_id:统计信息作业 ID,执行 ANALYZE 异步收集时得到。不指定 ID 时,此命令返回所有统计作业信息。

2. 输出结果

包含以下列:

列名 说明
job_id 统计作业 ID
catalog_name Catalog 名称
db_name 数据库名称
tbl_name 表名称
col_name 列名称列表(index_name:column_name)
job_type 作业类型
analysis_type 统计类型
message 作业信息
state 作业状态
progress 作业进度
schedule_type 调度方式
start_time 作业开始时间
end_time 作业结束时间

3. 示例:

SQL
1mysql show analyze 245073\G;
2*************************** 1. row ***************************
3              job_id: 93021
4        catalog_name: internal
5             db_name: tpch
6            tbl_name: region
7            col_name: [region:r_regionkey,region:r_comment,region:r_name]
8            job_type: MANUAL
9       analysis_type: FUNDAMENTALS
10             message: 
11               state: FINISHED
12            progress: 3 Finished  |  0 Failed  |  0 In Progress  |  3 Total
13       schedule_type: ONCE
14          start_time: 2024-07-11 15:15:00
15            end_time: 2024-07-11 15:15:33

查看统计任务

每个收集作业可包含一到多个任务,且每个任务对应一列的收集。用户可通过以下命令查看具体每列的统计信息收集完成情况。

1. 语法

SQL
1SHOW ANALYZE TASK STATUS [job_id]

2. 示例

SQL
1mysql> show analyze task status 93021;
2+---------+-------------+------------+---------+------------------------+-----------------+----------+
3| task_id | col_name    | index_name | message | last_state_change_time | time_cost_in_ms | state    |
4+---------+-------------+------------+---------+------------------------+-----------------+----------+
5| 93022   | r_regionkey | region     |         | 2024-07-11 15:15:33    | 32883           | FINISHED |
6| 93023   | r_comment   | region     |         | 2024-07-11 15:15:33    | 32883           | FINISHED |
7| 93024   | r_name      | region     |         | 2024-07-11 15:15:33    | 32883           | FINISHED |
8+---------+-------------+------------+---------+------------------------+-----------------+----------+

查看统计信息

用户可以通过 SHOW COLUMN STATS 命令来查看已经收集的列统计信息。

1. 语法

SQL
1SHOW COLUMN [cached] STATS table_name [ (column_name [, ...]) ];

其中:

  • cached: 展示当前 FE 内存缓存中的统计信息。
  • table_name: 收集统计信息的目标表,可以是 db_name.table_name 形式。
  • column_name: 指定的目标列,必须是 table_name 中存在的列,多个列名称用逗号分隔。如不指定,则展示所有列的信息。

2. 示例

SQL
1mysql> show column stats region (r_regionkey)\G
2*************************** 1. row ***************************
3  column_name: r_regionkey
4   index_name: region
5        count: 5.0
6          ndv: 5.0
7     num_null: 0.0
8    data_size: 20.0
9avg_size_byte: 4.0
10          min: 0
11          max: 4
12       method: FULL
13         type: FUNDAMENTALS
14      trigger: MANUAL
15  query_times: 0
16 updated_time: 2024-07-11 15:15:33
171 row in set (0.36 sec)

查看表信息概况

通过 SHOW TABLE STATS 查看表的统计信息收集概况。

1. 语法

SQL
1SHOW TABLE STATS table_name;

其中:table_name: 目标表表名。可以是 db_name.table_name 形式。

2. 输出结果

包含以下列:

列名 说明
updated_rows 自上次 ANALYZE 以来该表的更新行数
query_times 保留列,用于在后续版本中记录该表的查询次数
row_count 表的行数(可能不反映命令执行时的准确行数)
updated_time 上次统计信息的更新时间
columns 已收集统计信息的列
trigger 统计信息触发的方式
new_partition 是否有新分区首次导入了数据
user_inject 用户是否手动注入了统计信息

3. 示例

SQL
1mysql> show column stats region (r_regionkey)\G
2*************************** 1. row ***************************
3  column_name: r_regionkey
4   index_name: region
5        count: 5.0
6          ndv: 5.0
7     num_null: 0.0
8    data_size: 20.0
9avg_size_byte: 4.0
10          min: 0
11          max: 4
12       method: FULL
13         type: FUNDAMENTALS
14      trigger: MANUAL
15  query_times: 0
16 updated_time: 2024-07-11 15:15:33
171 row in set (0.36 sec)

终止统计作业

通过 KILL ANALYZE 来终止当前正在运行的异步统计作业。

1. 语法

SQL
1KILL ANALYZE job_id;

其中:job_id:表示统计信息作业的 ID。这是执行 ANALYZE 异步收集统计信息时返回的值,也可以通过 SHOW ANALYZE 语句获取。

2. 示例

终止 ID 为 52357 的统计作业。

SQL
1mysql> KILL ANALYZE 52357;

删除统计信息

如果某个 Catalog、Database 或 Table 被删除,用户无需手动删除其统计信息,因为后台会定期清理这些信息。

然而对于仍然存在的表,系统不会自动清除其统计信息。此时需要用户手动进行删除操作,语法如下:

SQL
1DROP STATS table_name

会话变量及配置项

会话变量

会话变量 说明 默认值
auto_analyze_start_time 自动统计信息收集的开始时间 0:00:00
auto_analyze_end_time 自动统计信息收集的结束时间 23:59:59
enable_auto_analyze 是否开启自动收集功能 TRUE
huge_table_default_sample_rows 对大表进行采样时的行数 4194304
table_stats_health_threshold 取值范围 0-100,表示自上次统计信息收集后,数据更新达到 (100 - table_stats_health_threshold)%时,认为统计信息已过时 90
auto_analyze_table_width_threshold 控制自动统计信息收集处理的最大表宽度,超过此列数的表不参与自动统计信息收集 300
enable_get_row_count_from_file_list Hive 表是否通过文件大小来估算行数 TRUE(2.1.5 之前默认为 FALSE)

FE 配置项

备注: 以下 FE 配置项在通常情况下无需特别关注

FE 配置项 说明 默认值
analyze_record_limit 控制统计信息作业执行记录的持久化行数 20000
stats_cache_size FE 侧统计信息缓存的条数 500000
statistics_simultaneously_running_task_num 可同时执行的异步统计作业数量 3
statistics_sql_mem_limit_in_bytes 控制每个统计信息 SQL 可占用的 BE 内存大小 2L 1024 1024 (2GiB)

常见 FAQ

Q1:如何查看一张表是否收集了统计信息以及内容是否正确?

首先,执行 show column stats table_name 查看是否有统计信息输出。

其次,执行 show column cached stats table_name 查看缓存中是否加载了该表的统计信息。

SQL
1mysql> show column stats test_table\G
2Empty set (0.02 sec)
3
4mysql> show column cached stats test_table\G
5Empty set (0.00 sec)

上图显示结果为空,说明 test_table 表目前没有统计信息。如果有统计信息,结果将类似以下内容:

SQL
1mysql> show column cached stats mvTestDup;
2+-------------+------------+-------+------+----------+-----------+---------------+------+------+--------+--------------+---------+-------------+---------------------+
3| column_name | index_name | count | ndv  | num_null | data_size | avg_size_byte | min  | max  | method | type         | trigger | query_times | updated_time        |
4+-------------+------------+-------+------+----------+-----------+---------------+------+------+--------+--------------+---------+-------------+---------------------+
5| key1        | mvTestDup  | 6.0   | 4.0  | 0.0      | 48.0      | 8.0           | 1    | 1001 | FULL   | FUNDAMENTALS | MANUAL  | 0           | 2024-07-22 10:53:25 |
6| key2        | mvTestDup  | 6.0   | 4.0  | 0.0      | 48.0      | 8.0           | 2    | 2001 | FULL   | FUNDAMENTALS | MANUAL  | 0           | 2024-07-22 10:53:25 |
7| value2      | mvTestDup  | 6.0   | 4.0  | 0.0      | 24.0      | 4.0           | 4    | 4001 | FULL   | FUNDAMENTALS | MANUAL  | 0           | 2024-07-22 10:53:25 |
8| value1      | mvTestDup  | 6.0   | 4.0  | 0.0      | 24.0      | 4.0           | 3    | 3001 | FULL   | FUNDAMENTALS | MANUAL  | 0           | 2024-07-22 10:53:25 |
9| mv_key1     | mv1        | 6.0   | 4.0  | 0.0      | 48.0      | 8.0           | 1    | 1001 | FULL   | FUNDAMENTALS | MANUAL  | 0           | 2024-07-22 10:53:25 |
10| value3      | mvTestDup  | 6.0   | 4.0  | 0.0      | 24.0      | 4.0           | 5    | 5001 | FULL   | FUNDAMENTALS | MANUAL  | 0           | 2024-07-22 10:53:25 |
11+-------------+------------+-------+------+----------+-----------+---------------+------+------+--------+--------------+---------+-------------+---------------------+
126 rows in set (0.00 sec)

在有统计信息的情况下,可以通过手动执行 SQL 来验证统计信息的准确性。

SQL
1Select count(1), ndv(col1), min(col1), max(col1) from table

如果 count 和 ndv 的误差在一个数量级以内,那么准确度基本可以接受。

Q2:为什么一张表一直没有自动收集统计信息?

首先,查看自动收集功能是否打开:

SQL
1Show variables like "enable_auto_analyze"  // 如果是 false,需要设置为 true:
2Set global enable_auto_analyze = true

如果已经是 true,再确认一下表的列数。如果超过auto_analyze_table_width_threshold的值,则这个表不会参与自动收集。此时,需要修改这个值,使其大于当前表的列数:

SQL
1Show variables like "auto_analyze_table_width_threshold"  // 如果 Value 小于表的宽度,可以修改:
2Set global auto_analyze_table_width_threshold=350

如果列数没有超过阈值,可以执行show auto analyze,检查是否有其他收集任务正在执行(处于 running 状态)。由于自动收集是单线程串行执行,会轮询所有库表,因此执行周期可能较长。

Q3:为什么部分列没有统计信息?

目前,系统仅支持收集基本类型列的统计信息。对于复杂类型的列,如 JSONB、VARIANT、MAP、STRUCT、ARRAY、HLL、BITMAP、TIME 以及 TIMEV2 等系统会选择跳过。

Q4:报错 "Stats table not available, please make sure your cluster status is normal"

出现这种报错通常意味着内部统计信息表处于不健康状态。

首先,需要检查集群中所有的 BE(Backend)是否都处于正常状态,确保所有 BE 都在正常工作。

其次,执行以下语句,以获取到所有的 tabletId(输出结果的第一列)。

SQL
1show tablets from internal.__internal_schema.column_statistics;

接着,通过 tablet_id 逐一查看每个 tablet 是否正常:

SQL
1ADMIN DIAGNOSE TABLET tablet_id

如果发现有不正常的 tablet,需要先进行修复,再重新收集统计信息。

Q5:如何解决统计信息收集不及时问题?

自动收集的时间间隔具有不确定性,它与系统中表的数量及表的大小均有关联。若情况紧急,建议对表进行手动 analyze 操作。

若在导入大量数据后仍未触发自动收集,可能需要调整 table_stats_health_threshold 参数。其默认值为 90,意味着表的数据变化量需超过 10%(即 100 - 90)才会触发自动收集。可适当提高此值,例如设为 95,这样当表中数据变化量超过 5% 时,便会重新收集统计信息。

Q6:自动收集时资源占用太多,该如何解决?

自动收集采用采样方式,无需全量扫描表数据,且自动收集任务以单线程串行执行,通常系统资源占用可控,不会对正常查询任务造成影响。

对于某些特殊表,如分区众多的表或单个 Tablet 体积庞大的表,可能会出现内存占用较多的情况。

建议用户在建表时合理规划 Tablet 数量,避免产生超大 Tablet。若 Tablet 结构不易调整,建议在系统低峰期开启自动收集,或于低峰期手动收集这些大表,以免在高峰期影响业务运行。在 PALO 3.x 系列中,我们将针对此类场景进行优化。

上一篇
TOPN 查询优化
下一篇
Pipeline 执行引擎