ELK收集nginx日志一例
2020-02-07 12:07
239 查看
数据总体流向
filebeat(收集) --> logstash(数据过滤处理) --> elasticsearch(数据存储) --> kibana(数据展示)
filebeat.yml配置
--- filebeat.inputs: - type: log enabled: true paths: - /var/log/nginx/access.log tags: ["nginx-access-log"] fields: logtype: nginx-access output.logstash: hosts: ["192.168.60.156:5044"]
如果要收集多个不同应用的日志文件,可以用这个字段区分,以便创建不同的索引
logstash.yml配置
input { beats { port => 5044 codec => "json" } } output { if [fields][logtype] == "nginx-access" { elasticsearch { hosts => ["http://192.168.60.133:9200"] index => "nginx-access-node1-%{+YYYY.MM.dd}" } } }
if判断从filebeat过来的日志类型
elasticsearch和kibana只要绑定ip和端口就行,然后需要在kibana中创建index pattern。
至此在kibana的discover里就可以看到数据了。
如果在filebeat和logstash中有kafka,则
filebeat.yml如下
- type: log enabled: true paths: - /var/log/nginx/access.log tags: ["nginx-access-log"] #output.logstash: # hosts: ["192.168.60.156:5044"] output.kafka: hosts: ["10.10.120.42:9092"] topic: "filebeat" codec.json: pretty: true
logstash.conf
input { kafka { bootstrap_servers => "10.10.120.42:9092" topics => ["filebeat"] codec => "json" } } output { elasticsearch { hosts => ["http://192.168.60.133:9200"] index => "nginx-access-node1-%{+YYYY.MM.dd}" # pipeline => "%{[@metadata][pipeline]}" } }
- 点赞
- 收藏
- 分享
- 文章举报
相关文章推荐
- ELK收集Nginx日志,使用grok正则表达式(二)
- ELK集群部署及收集nginx日志
- ELK之nginx日志的简单收集
- ELK日志系统之使用Rsyslog快速方便的收集Nginx日志
- 搭建ELK收集Nginx日志
- ELK日志系统之使用Rsyslog快速方便的收集Nginx日志
- ELK日志服务器的快速搭建并收集nginx日志 推荐
- elk系统搭建并收集nginx日志-主要步骤
- ELK6.3.1版本使用filebeat收集nginx的日志配置文件
- ELK日志系统之使用Rsyslog快速方便的收集Nginx日志
- ELK实践(二):收集Nginx日志
- ELK+syslog+nginx访问日志收集+分词处理
- ubuntu搭建日志分析工具ELK收集Nginx日志
- ELK Stack (2) —— ELK + Redis收集Nginx日志
- ELK收集nginx日志并用高德地图展示出IP
- elk部署配置,收集nginx和tomcat日志
- 初探ELK-以收集 nginx 日志为例示范搭建一个 ELK 环境的基本步骤
- elk收集nginx日志配置实例!
- ELK+kafka收集 Nginx与tomcat日志
- ELK实战之收集Nginx的json格式日志