ELK-filebeat+kafka日志收集
2018-02-06 17:38
1086 查看
环境
centos6.9
ELK5.6
所有节点都是单点非集群
filebeat:10.99.2.16
elk:10.99.2.17
kafka:10.99.2.23
官方文档
软件下载
ELK5.6.7-rpm
java1.8-rpm
es安装
yum安装java环境和es:
配置文件
启动
logstash安装
yum安装
配置文件 /etc/logstash/logstash.yml
配置文件 /etc/logstash/conf.d/logstash_agent.conf
启动
kibana安装
yum安装
配置文件 /etc/kibana/kibana.yml
启动
kafka
kafka下载地址
也需要java环境,安装:
filebeat
filebeat下载地址
下载安装
修改配置文件 /etc/filebeat/filebeat.yml
测试配置文件
启动
centos6.9
ELK5.6
所有节点都是单点非集群
filebeat:10.99.2.16
elk:10.99.2.17
kafka:10.99.2.23
官方文档
软件下载
ELK5.6.7-rpm
java1.8-rpm
es安装
yum安装java环境和es:
yum install elasticsearch-5.6.7.rpm jre-8u161-linux-x64.rpm -y yum安装的需要普通用户开启 useradd elk cp -r /etc/elasticsearch /usr/share/elasticsearch/config chown -R elk:elk /usr/share/elasticsearch chown -R elk:elk /etc/elasticsearch
配置文件
1、在/etc/security/limits.conf中添加: 3. soft nproc 655350 4. hard nproc 655350 2、在/etc/security/limits.d/90-nproc.conf中修改: 5. soft nproc 4096 root soft nproc unlimited 3、修改es配置文件jvm.options和elasticsearch.yml # jvm.options: -Xms2g -Xmx2g # elasticsearch.yml: network.host: 0.0.0.0 http.port: 9200 bootstrap.system_call_filter: false
启动
su elk 切换用户 /usr/share/elasticsearch/bin/elasticsearch 加上"-d"是后台运行,不加可以看到无法启动的报错信息
logstash安装
yum安装
yum install -y logstash-5.6.7.rpm
配置文件 /etc/logstash/logstash.yml
path.data: /var/lib/logstash path.config: /etc/logstash/conf.d
配置文件 /etc/logstash/conf.d/logstash_agent.conf
input { kafka { bootstrap_servers => "10.99.2.30:9092" topics => "service-pv" # group_id => "logstash-lf" codec => "json" } } filter { json { source => "message" remove_field => "message" } } output { elasticsearch { hosts => "10.99.2.17:9200" } stdout { codec => rubydebug } }
启动
/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/logstash_agent.conf
kibana安装
yum安装
yum install kibana-5.6.5-x86_64.rpm
配置文件 /etc/kibana/kibana.yml
server.port: 5601 server.host: "0.0.0.0" elasticsearch.url: "http://localhost:9200" kibana.index: ".kibana"
启动
/usr/share/kibana/bin/kibana
kafka
kafka下载地址
也需要java环境,安装:
tar -zxf kafka_2.11-1.0.0.tgz cd kafka_2.11-1.0.0 启动zookeeper bin/zookeeper-server-start.sh config/zookeeper.properties 启动kafka bin/kafka-server-start.sh config/server.properties
1、创建topic $bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic test 2、查看创建的topic $ bin/kafka-topics.sh -list -zookeeper localhost:2181 test 3、生产消息测试 $bin/kafka-console-producer.sh --broker-list 192.168.12.105:9092 --topic test this is test #输入后回车 4、消费消息测试 $bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning this is test
filebeat
filebeat下载地址
下载安装
curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-5.6.7-x86_64.rpm yum install -y filebeat-5.6.7-x86_64.rpm
修改配置文件 /etc/filebeat/filebeat.yml
- input_type: log paths: - /usr/local/lnmp/tengine/logs/access_json.log # 要采集的日志文件 output.kafka: hosts: ["10.99.2.30:9092"] enable: true topic: service-pv # 输出到kafka
测试配置文件
filebeat.sh -configtest -e
启动
/etc/init.d/filebeat start
相关文章推荐
- elk6.3.1+zookeeper+kafka+filebeat收集dockerswarm容器日志
- ELK-filebeat收集日志到Kafka,并转存ES
- filebeat-6.2.3收集日志到kafka配置
- ELK实战之使用filebeat代替logstash收集日志
- Linux搭建ELK日志收集系统:FIlebeat+Redis+Logstash+Elasticse
- elk的安装部署三(kibana的安装及使用filebeat收集日志)
- filebeat -> logstash -> elasticsearch -> kibana ELK 日志收集搭建
- ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台(elk5.2+filebeat2.11)
- ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台 推荐
- ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台
- 6.3.1版本elk+redis+filebeat收集docker+swarm日志分析
- python fabric部署elk的filebeat日志收集客户端
- PHP慢日志 ELK+FileBeat收集
- ELK+FILEBEAT+KAFKA+ZOOKEEPER日志管理分析平台
- ELK+filebeat+kafka+zookeeper构建海量日志分析平台
- ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台
- Logstash/Filebeat->Logstash->Kafka->Spring-kafka->MongoDb->Spark日志收集和处理
- 在CentOS上集成filebeat+ELK docker收集日志
- Kubernetes部署ELK并使用Filebeat收集容器日志
- ELK+Filebeat+Kafka+ZooKeeper 构建海量日志分析平台