ELK日志管理
2015-09-04 23:06
656 查看
ELK一般由三部分组成:logstash(日志格式化) + elasticsearch(检索) + Kibana(前台报表展示)
官网地址:https://www.elastic.co/
本人在这用的是logstash*3 +elasticsearch集群 +Kibana 架构
1、logstash和elasticsearch安装,这里使用官方yum安装
2、elasticsearch集群配置
文件所在目录
检查elasticsearch集群状态:
3、Kibana 安装,解压就可以使用
4、指定kibana访问的elasticsearch
ELK这样就算搭建起来了,不过要真正让它运转起来还需要配置相关文件,可以参考本人其他的博客
官网地址:https://www.elastic.co/
本人在这用的是logstash*3 +elasticsearch集群 +Kibana 架构
1、logstash和elasticsearch安装,这里使用官方yum安装
[root@MiWiFi-R1CM ~]# rpm --import http://packages.elasticsearch.org/GPG-KEY-elasticsearch #下载证书认证 [root@MiWiFi-R1CM ~]# cat > /etc/yum.repos.d/elasticsearch.repo <<EOF > > [elasticsearch-1.7] > name=Elasticsearch repository for 1.7.x packages > baseurl=http://packages.elastic.co/elasticsearch/1.7/centos > gpgcheck=1 > gpgkey=http://packages.elastic.co/GPG-KEY-elasticsearch > enabled=1 > EOF [root@MiWiFi-R1CM ~]# yum clean all [root@MiWiFi-R1CM ~]# yum makecache [root@MiWiFi-R1CM ~]# yum install logstash [root@MiWiFi-R1CM ~]# yum install elasticsearch [root@MiWiFi-R1CM ~]# service logstash start #启动logstash服务 [root@MiWiFi-R1CM ~]# service elasticsearch start #启动elasticsearch服务
2、elasticsearch集群配置
文件所在目录
[root@MiWiFi-R1CM ~]# whereis elasticsearch elasticsearch: /etc/elasticsearch /usr/share/elasticsearch [root@MiWiFi-R1CM ~]# vi /etc/elasticsearch/elasticsearch.yml cluster.name: elasticsearch #集群名称 node.name: "Franz Kafka" #集群节点名称,默认自动获取 path.data: /path/to/data #集群数据文件存放路径 path.logs: /path/to/logs #日志路径 path.work: /path/to/work #临时文件路径 transport.tcp.port: 9300 #集群间通信端口 http.port: 9200 #集群对外端口 discovery.zen.ping.unicast.hosts: ["host1", "host2:port"] #如果集群不是在同一网段中,是没法自动加进集群的,需要在这里配置节点的ip和端口
检查elasticsearch集群状态:
[root@MiWiFi-R1CM ~]# curl -XGET 'http://localhost:9200/_cluster/state?pretty' [root@MiWiFi-R1CM ~]# curl 'http://127.0.0.1:9200/_cluster/stats?pretty'
3、Kibana 安装,解压就可以使用
[root@MiWiFi-R1CM ~]# wget https://download.elastic.co/kibana/kibana/kibana-4.1.1-linux-x64.tar.gz [root@MiWiFi-R1CM ~]# tar zxf kibana-4.1.1-linux-x64.tar.gz [root@MiWiFi-R1CM ~]# kibana-4.1.1-linux-x64/bin/kibana
4、指定kibana访问的elasticsearch
[root@MiWiFi-R1CM config]# vi kibana-4.1.1-linux-x64/config/kibana.yml elasticsearch_url: "http://localhost:9200"
ELK这样就算搭建起来了,不过要真正让它运转起来还需要配置相关文件,可以参考本人其他的博客
相关文章推荐
- MySQL日志管理详解
- 使用ElasticSearch+LogStash+Kibana+Redis搭建日志管理服务
- Linux 日志管理指南
- logstash
- 用Kibana和logstash快速搭建实时日志查询、收集与分析系
- logstash过滤nginx日志
- Log4j使用总结
- 最佳日志实践
- U3D导出到安卓apk的日志打印管理
- ElasticSearch的学习资源
- Spring Aop自定义注解拦截Controller实现日志管理
- Java调用WMI读取Windows EventLog (j-Interop库)
- log4j+flume+kafka管理日志,查询日志
- logstash开源日志管理系统-2-logstash配置语言介绍
- Android功能模块化系列之日志打印管理类
- logstash日志平台搭建
- elasticsearch的基础语句介绍 聚合功能很强大 可以分析数据
- [日志处理工作之五]整合logstash,kafka
- [日志处理工作之四]从flume采集的event中提取能被kibana识别的时间戳 and 对比flume与logstash
- 日志管理