Logstash使用指南

Elasticsearch BES

  • 邀测版存储计算分离套餐介绍
  • 功能发布记录
  • 产品描述
    • 基本概念
    • 关键特性
    • 产品介绍
    • 产品性能
      • 4核16GB512GB通用型的3个数据节点实例基准性能指标
      • 8核16GB512GB计算型的3个数据节点实例基准性能测试
      • 16核32GB512GB计算型的3个数据节点实例基准性能指标
      • 4核8GB512GB计算型的3个数据节点实例基准性能测试
      • 8核32GB512GB通用型的3个数据节点实例基准性能指标
      • 16核64GB512GB通用型的3个数据节点实例基准性能指标
      • 概述
  • Python-SDK
    • 实例
    • 异常
    • 日志
    • 节点配置类型
    • 版本更新记录
    • 快速入门
    • 集群
    • BesClient
    • 安装SDK工具包
    • 概述
  • Kibana
    • Kibana使用指南
  • Logstash
    • Logstash使用指南
    • 实例管理
      • 实例详情信息
      • 实例扩缩容
      • 管道管理
      • 创建实例
      • 实例列表
      • 删除实例
  • 开发指南
    • Elasticsearch Restful API
    • 通过其他客户端访问Elasticsearch
    • Elasticsearch Java客户端
      • Low Level REST Client
      • Rest Client操作向量索引示例
      • Java REST Client
      • High Level REST Client
  • Java-SDK
    • 实例
    • 异常
    • 日志
    • 节点配置类型
    • 版本更新记录
    • 快速入门
    • 集群
    • BesClient
    • 安装SDK工具包
    • 概述
  • 向量检索特性
    • 资源规划
    • 关键概念
    • 应用场景
    • 快速入门
    • 算法介绍
    • 能力简介
    • 向量数据库
    • 操作指南
      • 写入和查询数据
      • 训练模型
      • 向量索引缓存管理
      • 创建索引
      • 基于Reciprocal Rank Fusion的融合查询
      • 参数优化
      • 7.4版本兼容说明
    • 最佳实践
      • 调优建议
      • BES RAG 最佳实践:基于LangChain+BES的私域知识的QA问答系统
    • 迁移方案
      • ES dense vector 切换为BES方案
  • ELK
    • 基于ELK构建日志分析系统
  • 增强特性
    • 慢查询隔离
    • 百度NLP中文分词词典动态更新
    • 百度NLP中文分词插件
    • 基于段文件的主从复制
    • 基于BOS的冷热数据分离
  • 快速入门
    • 访问Elasticsearch服务
    • 导入数据并搜索
    • 创建集群
    • 集群资源评估
  • 典型实践
    • 使用BSC将BOS中的数据导入Es
    • 使用BSC将Kafka中的数据导入Es
    • 基于CCR实现多集群跨地域高可用
    • 基于节点磁盘介质的冷热数据分离
  • 服务等级协议SLA
    • 数据迁移服务协议
    • BES服务等级协议SLA(V1.0)
  • 常见问题
    • Spark访问Es常见问题
    • Elasticsearch系统常见问题
    • 常见问题总览
  • 产品定价
    • 预付费
    • 计费说明
    • 配置变更费用说明
    • 后付费
  • API文档
    • 概述
    • 自动续费相关接口
      • 续费列表
      • 查看自动续费
      • 查看自动续费规则列表
      • 续费操作
      • 更新自动续费规则
      • 删除自动续费规则
      • 创建自动续费规则
    • 插件配置接口
      • 上传自定义插件
      • 卸载系统默认插件
      • 上传nlp词典
      • 安装系统默认插件
      • 获取默认和自定义插件列表
      • 卸载自定义插件
      • 安装自定义插件
      • 删除自定义插件
      • 查看nlp词典
    • 日志管理相关接口
      • 查看日志导出任务记录
      • 创建日志导出任务
      • 日志设置
      • 日志查询
    • 标签接口
      • 查询标签列表
      • 批量新增标签
      • 单个集群更新标签
    • 智能巡检接口
      • 查看近7天已完成的巡检任务列表
      • 近七天巡检概况
      • 查看手动巡检任务的配置
      • 集群巡检授权
      • 列举所有可选巡检项
      • 查询是否可以提交巡检任务
      • 最新一次巡检概况
      • 查看集群是否开启自动巡检
      • 修改手动巡检任务的配置
      • 开启或关闭自动巡检
      • 提交手动巡检任务
      • 查询今日已执行完成的手动巡检次数
      • 查看某巡检任务的执行状态和结果
    • 集群相关接口
      • 获取操作历史信息
      • 删除集群
      • 新增节点类型
      • 开启和关闭https
      • 查看集群详情信息
      • 重置密码
      • EIP绑定
      • EIP解绑
      • 是否开启Grafana监控
      • 获取数据量观测数据
      • 查看集群列表
      • 上传NLP分词词典
      • 创建集群
      • 智能评估
      • 集群blb信息
      • 用户可用代金券列表
      • 停止集群
      • 扩容集群
      • 启动集群
      • 重启集群
    • 实例相关接口
      • 批量停止实例
      • 启动实例
      • 查看缩容节点列表
      • 数据迁移
      • 数据迁移系统建议
      • 批量启动实例
      • 数据迁移回滚
      • 停止实例
      • 数据迁移节点列表
      • 删除实例
    • 配置修改相关接口
      • 获取同义词文件列表
      • 查看集群配置
      • 删除同义词配置文件
      • 上传同义词配置文件
      • 配置修改
    • 定时调度
      • 更新定时调度任务
      • 删除定时调度任务
      • 创建和更新定时调度任务
      • 查看定时调度任务
  • API3.0
    • 集群相关接口
      • 删除集群
  • Elasticsearch
    • 用户手册
      • YML参数配置
      • 权限管理
      • 智能巡检
      • 数据迁移
      • 基于BOS的快照与恢复
      • 集群列表
      • 账号使用说明
      • 多可用区部署
      • 定时调度
      • 数据量观测
      • 日志查询
        • 日志查询(旧)
        • 日志查询(新)
        • 日志导出
        • 查询语法
      • 集群配置
        • 配置同义词
      • 插件管理
        • 上传与安装自定义插件
        • Elasticsearch插件列表
        • 系统默认插件
          • analysis-pinyin拼音分词插件
          • IK中文分词插件与动态更新词典
          • compression-zstd插件
          • CCR插件
          • 限流插件
          • 动态同义词插件
          • 简繁体转换插件
          • ingest attachment插件
          • SQL插件
      • 配置变更
        • 节点数据迁移
        • 集群变配说明与建议
        • 集群扩缩容
      • 版本升级
        • 升级版本
        • 内核版本说明
        • 升级检查
      • 集群监控报警
        • 监控查看及指标说明
        • 配置报警
      • 集群管理
        • 集群重启
        • 变更HTTPS协议用户指南
        • 节点启停
        • 查看集群信息
        • 集群创建
        • 公网绑定
        • 修改集群名称
        • 跨可用区迁移集群
        • 集群删除
        • 集群列表
        • 自动续费
        • 密码重置
        • ES服务区域代码
      • 账户管理
        • 多用户访问控制
所有文档
menu
没有找到结果,请重新输入

Elasticsearch BES

  • 邀测版存储计算分离套餐介绍
  • 功能发布记录
  • 产品描述
    • 基本概念
    • 关键特性
    • 产品介绍
    • 产品性能
      • 4核16GB512GB通用型的3个数据节点实例基准性能指标
      • 8核16GB512GB计算型的3个数据节点实例基准性能测试
      • 16核32GB512GB计算型的3个数据节点实例基准性能指标
      • 4核8GB512GB计算型的3个数据节点实例基准性能测试
      • 8核32GB512GB通用型的3个数据节点实例基准性能指标
      • 16核64GB512GB通用型的3个数据节点实例基准性能指标
      • 概述
  • Python-SDK
    • 实例
    • 异常
    • 日志
    • 节点配置类型
    • 版本更新记录
    • 快速入门
    • 集群
    • BesClient
    • 安装SDK工具包
    • 概述
  • Kibana
    • Kibana使用指南
  • Logstash
    • Logstash使用指南
    • 实例管理
      • 实例详情信息
      • 实例扩缩容
      • 管道管理
      • 创建实例
      • 实例列表
      • 删除实例
  • 开发指南
    • Elasticsearch Restful API
    • 通过其他客户端访问Elasticsearch
    • Elasticsearch Java客户端
      • Low Level REST Client
      • Rest Client操作向量索引示例
      • Java REST Client
      • High Level REST Client
  • Java-SDK
    • 实例
    • 异常
    • 日志
    • 节点配置类型
    • 版本更新记录
    • 快速入门
    • 集群
    • BesClient
    • 安装SDK工具包
    • 概述
  • 向量检索特性
    • 资源规划
    • 关键概念
    • 应用场景
    • 快速入门
    • 算法介绍
    • 能力简介
    • 向量数据库
    • 操作指南
      • 写入和查询数据
      • 训练模型
      • 向量索引缓存管理
      • 创建索引
      • 基于Reciprocal Rank Fusion的融合查询
      • 参数优化
      • 7.4版本兼容说明
    • 最佳实践
      • 调优建议
      • BES RAG 最佳实践:基于LangChain+BES的私域知识的QA问答系统
    • 迁移方案
      • ES dense vector 切换为BES方案
  • ELK
    • 基于ELK构建日志分析系统
  • 增强特性
    • 慢查询隔离
    • 百度NLP中文分词词典动态更新
    • 百度NLP中文分词插件
    • 基于段文件的主从复制
    • 基于BOS的冷热数据分离
  • 快速入门
    • 访问Elasticsearch服务
    • 导入数据并搜索
    • 创建集群
    • 集群资源评估
  • 典型实践
    • 使用BSC将BOS中的数据导入Es
    • 使用BSC将Kafka中的数据导入Es
    • 基于CCR实现多集群跨地域高可用
    • 基于节点磁盘介质的冷热数据分离
  • 服务等级协议SLA
    • 数据迁移服务协议
    • BES服务等级协议SLA(V1.0)
  • 常见问题
    • Spark访问Es常见问题
    • Elasticsearch系统常见问题
    • 常见问题总览
  • 产品定价
    • 预付费
    • 计费说明
    • 配置变更费用说明
    • 后付费
  • API文档
    • 概述
    • 自动续费相关接口
      • 续费列表
      • 查看自动续费
      • 查看自动续费规则列表
      • 续费操作
      • 更新自动续费规则
      • 删除自动续费规则
      • 创建自动续费规则
    • 插件配置接口
      • 上传自定义插件
      • 卸载系统默认插件
      • 上传nlp词典
      • 安装系统默认插件
      • 获取默认和自定义插件列表
      • 卸载自定义插件
      • 安装自定义插件
      • 删除自定义插件
      • 查看nlp词典
    • 日志管理相关接口
      • 查看日志导出任务记录
      • 创建日志导出任务
      • 日志设置
      • 日志查询
    • 标签接口
      • 查询标签列表
      • 批量新增标签
      • 单个集群更新标签
    • 智能巡检接口
      • 查看近7天已完成的巡检任务列表
      • 近七天巡检概况
      • 查看手动巡检任务的配置
      • 集群巡检授权
      • 列举所有可选巡检项
      • 查询是否可以提交巡检任务
      • 最新一次巡检概况
      • 查看集群是否开启自动巡检
      • 修改手动巡检任务的配置
      • 开启或关闭自动巡检
      • 提交手动巡检任务
      • 查询今日已执行完成的手动巡检次数
      • 查看某巡检任务的执行状态和结果
    • 集群相关接口
      • 获取操作历史信息
      • 删除集群
      • 新增节点类型
      • 开启和关闭https
      • 查看集群详情信息
      • 重置密码
      • EIP绑定
      • EIP解绑
      • 是否开启Grafana监控
      • 获取数据量观测数据
      • 查看集群列表
      • 上传NLP分词词典
      • 创建集群
      • 智能评估
      • 集群blb信息
      • 用户可用代金券列表
      • 停止集群
      • 扩容集群
      • 启动集群
      • 重启集群
    • 实例相关接口
      • 批量停止实例
      • 启动实例
      • 查看缩容节点列表
      • 数据迁移
      • 数据迁移系统建议
      • 批量启动实例
      • 数据迁移回滚
      • 停止实例
      • 数据迁移节点列表
      • 删除实例
    • 配置修改相关接口
      • 获取同义词文件列表
      • 查看集群配置
      • 删除同义词配置文件
      • 上传同义词配置文件
      • 配置修改
    • 定时调度
      • 更新定时调度任务
      • 删除定时调度任务
      • 创建和更新定时调度任务
      • 查看定时调度任务
  • API3.0
    • 集群相关接口
      • 删除集群
  • Elasticsearch
    • 用户手册
      • YML参数配置
      • 权限管理
      • 智能巡检
      • 数据迁移
      • 基于BOS的快照与恢复
      • 集群列表
      • 账号使用说明
      • 多可用区部署
      • 定时调度
      • 数据量观测
      • 日志查询
        • 日志查询(旧)
        • 日志查询(新)
        • 日志导出
        • 查询语法
      • 集群配置
        • 配置同义词
      • 插件管理
        • 上传与安装自定义插件
        • Elasticsearch插件列表
        • 系统默认插件
          • analysis-pinyin拼音分词插件
          • IK中文分词插件与动态更新词典
          • compression-zstd插件
          • CCR插件
          • 限流插件
          • 动态同义词插件
          • 简繁体转换插件
          • ingest attachment插件
          • SQL插件
      • 配置变更
        • 节点数据迁移
        • 集群变配说明与建议
        • 集群扩缩容
      • 版本升级
        • 升级版本
        • 内核版本说明
        • 升级检查
      • 集群监控报警
        • 监控查看及指标说明
        • 配置报警
      • 集群管理
        • 集群重启
        • 变更HTTPS协议用户指南
        • 节点启停
        • 查看集群信息
        • 集群创建
        • 公网绑定
        • 修改集群名称
        • 跨可用区迁移集群
        • 集群删除
        • 集群列表
        • 自动续费
        • 密码重置
        • ES服务区域代码
      • 账户管理
        • 多用户访问控制
  • 文档中心
  • arrow
  • ElasticsearchBES
  • arrow
  • Logstash
  • arrow
  • Logstash使用指南
本页目录
  • 简介
  • 安装
  • 快速使用
  • 安装Logstash
  • 配置input
  • 配置filter
  • Grok
  • 简介
  • 示例
  • 配置output
  • 启动Logstash
  • Logstash常用插件
  • 输入插件input
  • 编码插件codec
  • 过滤器插件filter
  • 输出插件output
  • Logstash命令行使用

Logstash使用指南

更新时间:2025-08-20

简介

Logstash是一款开源的实时数据采集工具。通过配置多种类型的input、fliter、output插件,Logstash支持多类数据源的数据采集、转换,并存储到目的端。

安装

  1. 检查JDK版本是不是JAVA 8以上,检查方式:
Plain Text
1java -version
  1. 登录Elasticsearch官网,选择版本并下载Logstash。如果用户集群是百度智能云Elasticsearch 7.4.2版本,使用以下链接可直接下载logstash-oss-7.4.2.zip。
Plain Text
1wget https://artifacts.elastic.co/downloads/logstash/logstash-oss-7.4.2.zip

快速使用

下边以用户在BCC上解析日志数据并写入百度智能云Elasticsearch为例,描述Logstash的使用方式。

安装Logstash

  1. 登录BCC并配置JAVA环境
  2. 下载并解压Logstash
  3. 在config目录下新建一个配置文件,命名为logstash-es.conf,格式如下:
Plain Text
1input {
2  ...
3}
4filter {
5  ...
6}
7output {
8  ...
9}

配置input

日志目录路径为/{LOG_PATH}/logs/*.log,日志格式为:

Plain Text
1[2021-01-22T10:21:02,837][INFO ][c.b.e.i.s.TestClass] [test_node1]test log.
2[2021-01-22T10:21:02,838][INFO ][c.b.e.i.s.TestClass] [test_node1]test log.
3[2021-01-22T10:21:02,838][INFO ][c.b.e.i.s.TestClass] [test_node1]test log.
4[2021-01-22T10:26:02,839][ERROR][c.b.e.i.s.TestClass] [test_node1]throws a ERROR:
5c.b.e.i.s.TestException: this a ERROR
6        at c.b.e.i.s.TestClass.test(TestClass.java:387) ~[baidu-test-logstash-7.4.2.jar:?]
7        at c.b.e.i.s.TestClass.test(TestClass.java:385) ~[baidu-test-logstash-7.4.2.jar:?]

则input配置为:

Plain Text
1input {
2  file {
3    path => "/{LOG_PATH}/logs/*.log"  #日志数据文件路径
4    start_position => "beginning"     #读取文件位置,默认为 end            
5    codec => multiline {              #multiline插件。匹配不是以“[”开头的日志数据,并入上一行数据。
6      pattern => "^\["
7      negate => true
8      what => previous
9    }
10  }
11}

配置filter

针对采集的日志,数据需要解析出日志时间time、日志级别level、日志所在类class、节点名称node、日志详细信息log_data,则可以使用grok插件配置filter,使用方式如下:

Plain Text
1filter {
2  grok {
3    match => { "message" => "\[%{TIMESTAMP_ISO8601:time}\]\[%{LOGLEVEL:level}( )*\]\[%{JAVACLASS:class}( )*\] \[%{DATA:node}\]%{GREEDYDATA:log_data}" }
4    remove_field => ["tags","path","@version","host"]
5  }
6}

Grok

简介

grok是一种采用组合多个预定义的正则表达式,用来匹配分割文本并映射到关键字的工具。通常用来对日志数据进行预处理。

Logstash内置grok的120个预定义匹配字段,可参考:grok默认预定义匹配字段。grok支持正则表达式和自定义匹配字段规则,可以灵活满足扩展的需求。grok同时支持多条匹配,因此如果有不同格式的日志数据,可以使用多个正则表达式语句同时匹配。

示例

下文是一条http请求日志:

Plain Text
155.3.244.1 GET /index.html 15824 0.043

可以使用如下grok pattern来匹配这种记录:

Plain Text
1%{IP:client} %{WORD:method} %{URIPATHPARAM:request} %{NUMBER:bytes} %{NUMBER:duration}

以下是结果:

Plain Text
1client: 55.3.244.1
2method: GET
3request: /index.html
4bytes: 15824
5duration: 0.043

配置output

输出目的端为百度智能云Elasticsearch,索引名称格式为test_logstash_index_{YYYY.MM.dd},用户可以创建模板文件template.json,格式如下:

Plain Text
1{
2  "template": "test_logstash_index_*",
3  "settings": {
4    "index.number_of_shards": 5,
5    "number_of_replicas": 1,
6    "index.refresh_interval": "60s"
7  },
8  "mappings": {
9    "properties": {
10      "@timestamp": {
11        "type": "date"
12      },
13      "class": {
14        "type": "keyword"
15      },
16      "log_data": {
17        "type": "keyword"
18      },
19      "level": {
20        "type": "keyword"
21      },
22      "message": {
23        "type": "keyword"
24      },
25      "node": {
26        "type": "keyword"
27      },
28      "time": {
29        "type": "date"
30      }
31    }
32  }
33}

output配置如下:

Plain Text
1output {
2  elasticsearch {
3    hosts => ["http://{ES_URL}"]
4    index => "test_logstash_index_%{+YYYY.MM.dd}"
5    template => "/{PATH}/template.json"
6    template_name => "my_template_es"
7    user => "{USER}"
8    password => "{PASSWORD}"
9  }
10}

启动Logstash

Plain Text
1bin/logstash -f config/logstash-es.conf

启动后,通过以下方式查询ES验证日志写入情况:

Plain Text
1POST /test_logstash_index*/_search
2{
3   "query": {
4      "match_all": {}
5   }
6}

查询结果如下:

Plain Text
1[
2  {
3    "_index": "test_logstash_index_2021.01.01",
4    "_type": "_doc",
5    "_id": "3Sf3KHcBRfCVcyxEVdqW",
6    "_score": 1,
7    "_source": {
8      "message": "[2021-01-22T10:21:02,837][INFO ][c.b.e.i.s.TestClass] [test_node1]test log.",
9      "node": "test_node1",
10      "level": "INFO",
11      "@timestamp": "2021-01-22T07:32:24.927Z",
12      "time": "2021-01-22T10:21:02,837",
13      "class": "c.b.e.i.s.TestClass",
14      "log_data": "test log."
15    }
16  },
17  {
18    "_index": "test_logstash_index_2021.01.01",
19    "_type": "_doc",
20    "_id": "4ScCKXcBRfCVcyxEL9rz",
21    "_score": 1,
22    "_source": {
23      "message": "[2021-01-22T10:21:02,838][INFO ][c.b.e.i.s.TestClass] [test_node1]test log.",
24      "node": "test_node1",
25      "level": "INFO",
26      "@timestamp": "2021-01-22T07:32:24.927Z",
27      "time": "2021-01-22T10:21:02,838",
28      "class": "c.b.e.i.s.TestClass",
29      "log_data": "test log."
30    }
31  },
32  {
33    "_index": "test_logstash_index_2021.01.01",
34    "_type": "_doc",
35    "_id": "3yf3KHcBRfCVcyxEdNqY",
36    "_score": 1,
37    "_source": {
38      "message": "[2021-01-22T10:21:02,838][INFO ][c.b.e.i.s.TestClass] [test_node1]test log.",
39      "node": "test_node1",
40      "level": "INFO",
41      "@timestamp": "2021-01-22T07:32:24.927Z",
42      "time": "2021-01-22T10:21:02,838",
43      "class": "c.b.e.i.s.TestClass",
44      "log_data": "test log."
45    }
46  },
47  {
48    "_index": "test_logstash_index_2021.01.01",
49    "_type": "_doc",
50    "_id": "4Cf4KHcBRfCVcyxEDtpl",
51    "_score": 1,
52    "_source": {
53      "@timestamp": "2021-01-22T07:21:21.141Z",
54      "message": "[2021-01-22T10:26:02,839][ERROR][c.b.e.i.s.TestClass] [test_node1]throws a ERROR:\nc.b.e.i.s.TestException: this a ERROR\n        at c.b.e.i.s.TestClass.test(TestClass.java:387) ~[baidu-test-logstash-7.4.2.jar:?]\n        at c.b.e.i.s.TestClass.test(TestClass.java:385) ~[baidu-test-logstash-7.4.2.jar:?]",
55      "time": "2021-01-22T10:26:02,839",
56      "level": "ERROR",
57      "node": "test_node1",
58      "log_data": "throws a ERROR:\nc.b.e.i.s.TestException: this a ERROR\n        at c.b.e.i.s.TestClass.test(TestClass.java:387) ~[baidu-test-logstash-7.4.2.jar:?]\n        at c.b.e.i.s.TestClass.test(TestClass.java:385) ~[baidu-test-logstash-7.4.2.jar:?]",
59      "class": "c.b.e.i.s.TestClass"
60    }
61  }
62]

Logstash常用插件

输入插件input

插件名称 说明 详细信息
beats 从Elastic Beats框架中接收事件。 Beats input plugin
elasticsearch 从Elasticsearch集群中读取数据。 Elasticsearch input plugin
generator 生成随机测试数据。 Generator input plugin
file 从文件中读取数据 file input plugin
http 通过HTTP或HTTPS接收单行或多行事件。 Http input plugin
jdbc 通过JDBC,将任一数据库数据读取到Logstash中。 Jdbc input plugin
kafka 从Kafka主题读取事件。 Kafka input plugin
rabbitmq 从RabbitMQ队列中读取事件。 Rabbitmq input plugin
redis 从Redis实例中读取事件。 Redis input plugin
stdin 从标准输入读取事件。 Stdin input plugin
syslog 在网络上将Syslog消息作为事件读取。 Syslog input plugin
tcp 通过TCP套接字读取事件。 Tcp input plugin
udp 在网络上通过UDP,将消息作为事件读取。 Udp input plugin

更多input插件可参考Logstash官网。

编码插件codec

常用编码插件:

插件名称 说明 详细信息
json 解码(通过输入)和编码(通过输出)完整的JSON消息。 Json codec plugin
json_lines 解码以新行分隔的JSON流。 Json_lines codec plugin
line 读取面向行的文本数据。 Line codec plugin
multiline 将多行消息合并到单个事件中。 Multiline codec plugin

更多codec插件可参考Logstash官网。

过滤器插件filter

插件名称 说明 详细信息
date 解析字段中的日期,然后使用该日期或时间戳作为事件的logstash时间戳。 Date filter plugin
geoip 根据GeoIP库为数据中的IP地址提供对应的地理位置信息。 Geoip filter plugin
grok 通过grok正则匹配将数据结构化。 Grok filter plugin
json JSON解析过滤器,将包含JSON的已有字段扩展为Logstash事件中的实际数据结构 JSON filter plugin
kv 处理各种形如key-value格式的数据 Kv filter plugin
metrics 聚合指标 Metrics filter plugin
mutate mutate提供了丰富的基础类型数据处理能力,包括类型转换,字符串处理和字段处理等 Mutate filter plugin
ruby 执行Ruby代码 Ruby filter plugin
split 通过分解事件的一个字段,并将产生的每个值嵌入原始事件的克隆版,从而克隆事件。 被分解的字段可以是字符串或字符串数组。 Split filter plugin
xml XML过滤器。将包含XML的字段,扩展为实际数据结构 Xml filter plugin

更多input插件可参考Logstash官网。

输出插件output

插件名称 说明 详细信息
stdout 将数据向Linux控制台标准输出。 Stdout output plugin
tcp 通过TCP套接字写入数据。 Tcp output plugin
csv 以逗号分隔(CSV)或其他分隔的格式,将数据写入磁盘。 Csv output plugin
elasticsearch 向Elasticsearch写入数据。 Elasticsearch output plugin
email 收到输出后发送电子邮件。 Email output plugin
file 向磁盘文件写入数据。 File output plugin

更多output插件可参考Logstash官网。

Logstash命令行使用

Logstash 提供了可执行脚本 bin/logstash ,可以方便快速运行,支持以下主要参数:

  • -e

快速执行Logstash,一般用于测试使用。

  • --config 或 -f

通常会把配置写到配置文件里,然后通过 bin/logstash -f agent.conf 的形式运行Logstash。

此外,Logstash还可以直接用 bin/logstash -f /etc/logstash.d/ 来运行,Logstash 会自动读取 /etc/logstash.d/ 目录下所有的文本文件,并执行。

  • --log 或 -l

Logstash 默认输出日志到标准错误。生产环境下可以通过 bin/logstash -l logs/logstash.log 命令来统一存储日志。

  • --filterworkers 或 -w

Logstash会为过滤插件(filter)运行多个线程。例如: bin/logstash -w 5为Logstash的filter会运行 5 个线程同时工作。

注意:Logstash目前不支持输入插件的多线程,而输出插件的多线程需要在配置内部设置。

上一篇
Kibana
下一篇
实例管理