elk7版本,收集nginx日志,grafana进行展示
2020-06-24 16:23
1146 查看
elk7版本和之前的部署方式不太一样,我们先部署一下,回忆一下:
一、部署es集群:
我们使用elk用户来启动和创建
首先安装jdk 这里使用1.13版本
这里自行安装,百度都有
接下来开始配置,这些
系统的参数
/etc/security/limits.conf
重启一下或者这个临时的不然系统不识别
接下来开始es配置
自行修改,默认1G
创建一下之前的,数据保存目录
启动es
访问一下
其他的,两个机器也是一样的,但是上面的name需要修改
其他的是k8s-node1和k8s-node2
完成都启动然后测试
上面说明我们的es已经搭建完成了,
安装一个es的插件用来展示elasticsearch-head-chrome-master,安装这个可以自己百度,但是下载之后需要修改
完成之后然后通过index.html就可以看到了
=============================================
接下来部署kibana
vim kibana.yml
启动kibana就可以了
=============================================
接下来部署logstash和nignx日志收集
logstash要和nginx在一台机器
logstash写nginx收集的配置文件
log_format main '{"@timestamp":"$time_iso8601",'[url=https://blog.51cto.com/xiaorenwutest/mailto:br/>']br/>'"@source":"$server_addr",'
相关文章推荐
- ELK收集nginx日志并展示来源IP城市分布图
- 利用 ELK系统分析Nginx日志并对数据进行可视化展示
- 利用 ELK系统分析Nginx日志并对数据进行可视化展示
- 利用 ELK系统分析Nginx日志并对数据进行可视化展示
- ELK收集nginx日志并展示来源IP城市分布图
- ELK收集nginx日志并用高德地图展示出IP
- ELK6.3.1版本使用filebeat收集nginx的日志配置文件
- 使用Elasticsearch、Logstash、Kibana与Redis(作为缓冲区)对Nginx日志进行收集(转)
- 利用grok对Nginx日志进行分解
- rsyslog收集nginx日志配置
- nginx+lua+kafka实现日志统一收集汇总
- ELASTIC 5.2部署并收集nginx日志
- 系统调用日志收集程序_x86_64环境3.14版本内核
- logrotate 进行nginx日志分割
- linux下使用awk,wc,sort,uniq,grep对nginx日志进行分析和统计
- nginx日志按照天进行分割
- Grafana分析Nginx日志
- 使用flume进行日志收集的总结(1)
- logstash收集nginx访问日志
- 利用cronolog对nginx日志进行分割