您的位置:首页 > 运维架构 > Docker

Docker安装ELK

2019-06-13 15:56 1391 查看

1.下载elk

docker pull sebp/elk

2.启动elk

//Elasticsearch至少需要单独2G的内存
//增加了一个volume绑定,以免重启container以后ES的数据丢失
docker run -d -p 5044:5044 -p 127.0.0.1:5601:5601 -p 127.0.0.1:9200:9200 -p 127.0.0.1:9300:9300 -v /var/data/elk:/var/lib/elasticsearch --name=elk sebp/elk

若启动过程出错一般是因为elasticsearch用户拥有的内存权限太小,至少需要262144

切换到root用户

执行命令:

sysctl -w vm.max_map_count=262144

查看结果:

sysctl -a|grep vm.max_map_count

显示:

vm.max_map_count = 262144
上述方法修改之后,如果重启虚拟机将失效,所以:

解决办法:

在   /etc/sysctl.conf文件最后添加一行

vm.max_map_count=262144

即可永久修改

启动成功之后访问:http://:5601 看到kibana页面则说明安装成功

3.配置使用

3.1 进入容器
docker exec -it <container-name> /bin/bash
3.2 执行命令
/opt/logstash/bin/logstash -e 'input { stdin { } } output { elasticsearch { hosts => ["localhost"] } }'
/*
注意:如果看到这样的报错信息 Logstash could not be started because there is already another instance using the configured data directory.  If you wish to run multiple instances, you must change the "path.data" setting. 请执行命令:service logstash stop 然后在执行就可以了。
*/
3.3 测试

当命令成功被执行后,看到:Successfully started Logstash API endpoint {:port=>9600} 信息后,输入:this is a dummy entry 然后回车,模拟一条日志进行测试。
打开浏览器,输入:http://:9200/_search?pretty 如图,就会看到我们刚刚输入的日志内容

3.4 kafka-logstash-es配置
input {
kafka{
//此处注意:logstash5.x版本以前kafka插件配置的是zookeeper地址,5.x以后配置的是kafka实例地址
bootstrap_servers =>["192.168.121.205:9092"]
client_id => "test" group_id => "test"
consumer_threads => 5
decorate_events => true
topics => "logstash"
}
}
filter{
json{
source => "message"
}
}

output {
elasticsearch {
hosts => ["192.168.121.205"]
index=> "hslog_2"
codec => "json"
}
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: