Logstash学习10_Logstash从Kafka或文件接收数据的配置demo介绍
2017-02-13 14:51
295 查看
下面介绍两个Logstash的配置Demo:
Demo1:
input {
kafka {
zk_connect => "10.10.16.2:2181,10.10.16.3:2181,10.10.16.4:2181"
group_id => "test-consumer-group"
topic_id => "MyPattern"
reset_beginning => false # boolean (optional), default: false
consumer_threads => 5 # number (optional), default: 1
decorate_events => true # boolean (optional), default: false
}
}
filter{
mutate{
split => ["message",","]
}
#第一个数据的内容中ORA-xxxxx这种格式,则这条内容是ora错误。添加二个字段
mutate{
add_field => {
"SRC_ADDRESS" => "%{[message][0]}"
"DEST_ADDRESS" => "%{[message][1]}"
"SRC_PORT" => "%{[message][2]}"
"DEST_PORT" => "%{[message][3]}"
"TRANS_PROTOCOL" => "%{[message][4]}"
"PACKETS" => "%{[message][5]}"
"BYTES" => "%{[message][6]}"
"FLAGS" => "%{[message][7]}"
"START_TIME" => "%{[message][8]}"
}
}
}
Demo2:
input {
file {
path => ["/home/test.csv"]
#type => "system"
#start_position => "beginning"
}
}
filter{
mutate{
gsub => [ "message", "\r", "" ]
}
mutate {
split => ["message",","]
}
mutate{
add_field => {
"id" => "%{[message][0]}"
"time" => "%{[message][1]}"
"userId" => "%{[message][2]}"
"pc" => "%{[message][3]}"
"stat" => "%{[message][4]}"
}
}
}
output {
stdout { codec => rubydebug }
}
第一个是从Kafka接收数据,第二个是从文件接收数据,所以input的配置不同。
Demo1:
input {
kafka {
zk_connect => "10.10.16.2:2181,10.10.16.3:2181,10.10.16.4:2181"
group_id => "test-consumer-group"
topic_id => "MyPattern"
reset_beginning => false # boolean (optional), default: false
consumer_threads => 5 # number (optional), default: 1
decorate_events => true # boolean (optional), default: false
}
}
filter{
mutate{
split => ["message",","]
}
#第一个数据的内容中ORA-xxxxx这种格式,则这条内容是ora错误。添加二个字段
mutate{
add_field => {
"SRC_ADDRESS" => "%{[message][0]}"
"DEST_ADDRESS" => "%{[message][1]}"
"SRC_PORT" => "%{[message][2]}"
"DEST_PORT" => "%{[message][3]}"
"TRANS_PROTOCOL" => "%{[message][4]}"
"PACKETS" => "%{[message][5]}"
"BYTES" => "%{[message][6]}"
"FLAGS" => "%{[message][7]}"
"START_TIME" => "%{[message][8]}"
}
}
}
Demo2:
input {
file {
path => ["/home/test.csv"]
#type => "system"
#start_position => "beginning"
}
}
filter{
mutate{
gsub => [ "message", "\r", "" ]
}
mutate {
split => ["message",","]
}
mutate{
add_field => {
"id" => "%{[message][0]}"
"time" => "%{[message][1]}"
"userId" => "%{[message][2]}"
"pc" => "%{[message][3]}"
"stat" => "%{[message][4]}"
}
}
}
output {
stdout { codec => rubydebug }
}
第一个是从Kafka接收数据,第二个是从文件接收数据,所以input的配置不同。
相关文章推荐
- 03_MyBatis基本查询,mapper文件的定义,测试代码的编写,resultMap配置返回值,sql片段配置,select标签标签中的内容介绍,配置使用二级缓存,使用别名的数据类型,条件查询ma
- 【北大天网搜索引擎TSE学习笔记】第2节——重要数据文件介绍
- 【Git配置技巧】01. 配置文件git config介绍 --[码农老毕的学习笔记]
- Greenplum学习10--添加节点gpexpand ①(在每台segment加入一个节点)(生成节点配置文件)
- 分布式消息队列kafka系列介绍 — 配置文件详解
- oracle 11g 学习笔记 10_31_管理表空间和数据文件
- Oracle学习(十八)之控制文件、日志文件、数据文件及配置文件管理总结
- Kafka笔记-3-kafka配置文件介绍
- Logstash学习3_通过Kafka传输数据给logstash-1.4和logstash-1.5
- 最近学习NFS文件系统的使用,Ubuntu上配置好了,想和Win7共享数据,所以网上搜到了这篇文章。借花献佛,跟大家共享一下:
- ZendFramework学习第三章(核心组件—使用配置数据之从XML配置文件中读取数据)
- OpenCV学习笔记06--数据存储、配置文件
- C语言学习10:结构体,结构体应用,联合用法,枚举,fopen函数使用,fseek,ftell的作用和文件结束符EOF,数组和文件交换数据,个人信息管理。
- Solr配置文件介绍、中文分析器以及数据导入
- ZendFramework学习第三章(核心组件—使用配置数据之从ini配置文件中读取数据)
- ZendFramework学习第三章(核心组件—使用配置数据之从ini配置文件中读取数据)
- ZendFramework学习第三章(核心组件—使用配置数据之从XML配置文件中读取数据)
- oracle 11g 学习笔记 10_31_管理表空间和数据文件
- 分布式消息队列kafka系列介绍 — 配置文件详解
- Caffe学习笔记10:图像数据生成caffe需要的(laveldb和lmdb)数据文件