您的位置:首页 > 其它

ELK集群搭建,基于7.1.1

2019-06-24 14:30 363 查看

写在前边

昨天晚上就已经完成这篇博客了,就是在测试这块是否正常跑起来,晚上没搞完,上班前把电脑关机带着,结果没保存!基本上昨天写的东西都丢了,好在博客园的图片url还在。

为了让大家都轻松些,我轻松写,你轻松看。打算把文章的篇幅缩小,拆分成多个部分,这样更新频率会提高,写起来看起来也不会那么累,也不会再出现一次性丢那么多稿的问题……

本文记述Elasticsearch集群部分,下边会有说明具体的结构

部署架构

整体图

本文部分结构图

node 1~3为集群的数据节点,同时竞争master,tribe-node为部落节点,负责Logstash与Kibana的连接

好处是无需指明master节点,不用多启动一个只负责协调的节点,减少资源浪费。

环境准备

  • GNU/Debian Stretch 9.9 linux-4.19
  • elasticsearch-7.1.1-linux-x86_64.tar.gz

本文为了模拟,使用Docker的centos7,文中不会出现Docker操作部分,与正常主机无异

开始搭建

1.root权限编辑/etc/security/limits.conf

sudo vim /etc/security/limits.conf

添加如下内容:

* soft memlock unlimited
* hard memlock unlimited

其中

*
可替换为启动es的linux用户名

保存退出. 生效需要重启

2.[可选] 禁用swap分区

sudo echo "vm.swappiness=0" >> /etc/sysctl.conf

3.重启系统

不重启有些配置无法生效,启动es后报错依旧

4.为各主机添加用户和组

# groupadd elasticsearch #添加elasticsearch组
# useradd -g elasticsearch #添加elasticsearch用户

5.解压

elasticsearch-7.1.1-linux-x86_64.tar.gz
,复制到各主机
/home/elasticsearch

6.分别为每个主机的

/home/elasticsearch/elasticsearch-7.1.1/config/elasticsearch.yml
内容最后追加配置

es-node-1

# ======================== Elasticsearch Configuration =========================
cluster.name: es-cluster
node.name: node-1
node.attr.rack: r1
bootstrap.memory_lock: true
http.port: 9200
network.host: 172.17.0.2
transport.tcp.port: 9300
discovery.seed_hosts: ["172.17.0.3:9300","172.17.0.4:9300","172.17.0.5:9300"]
cluster.initial_master_nodes: ["node-1", "node-2", "node-3"]
gateway.recover_after_nodes: 2

es-node-2

# ======================== Elasticsearch Configuration =========================
cluster.name: es-cluster
node.name: node-2
node.attr.rack: r1
bootstrap.memory_lock: true
http.port: 9200
network.host: 172.17.0.3
transport.tcp.port: 9300
discovery.seed_hosts: ["172.17.0.2:9300","172.17.0.4:9300","172.17.0.5:9300"]
cluster.initial_master_nodes: ["node-1", "node-2", "node-3"]
gateway.recover_after_nodes: 2

es-node-3

# ======================== Elasticsearch Configuration =========================
cluster.name: es-cluster
node.name: node-3
node.attr.rack: r1
bootstrap.memory_lock: true
http.port: 9200
network.host: 172.17.0.4
transport.tcp.port: 9300
discovery.seed_hosts: ["172.17.0.3:9300","172.17.0.2:9300","172.17.0.5:9300"]
cluster.initial_master_nodes: ["node-1", "node-2", "node-3"]
gateway.recover_after_nodes: 2

es-tribe-node

# ======================== Elasticsearch Configuration =========================
cluster.name: es-cluster
node.name: tribe-node
node.master: false
node.data: false
node.attr.rack: r1
bootstrap.memory_lock: true
http.port: 9200
network.host: 172.17.0.5
transport.tcp.port: 9300
discovery.seed_hosts: ["172.17.0.3:9300","172.17.0.4:9300","172.17.0.2:9300"]
cluster.initial_master_nodes: ["node-1", "node-2", "node-3"]
gateway.recover_after_nodes: 2

各参数说明放到文末,请自行参考

7.使用命令启动各节点

ES_JAVA_OPTS="-Xms512m -Xmx512m" bin/elasticsearch

注意:

  • 这里只能用非root用户,即文章最开始部分的创建的账号
  • 本命令相对es的解压目录的路径
  • JVM参数堆大小可自行调节

查看效果

这里使用浏览器查看

此图中的tribe-node节点不是mdi,是我之前忘加

node.data: false
的图,现在是
i

可以看出
node-3
是master节点,最近发现了个好用的elasticsearch查看工具
cerebro

使用cerebro查看 cerebro github

图片看不清可以右键新标签页打开看大图

点nodes,查看各节点状态

还可以通过more来修改集群设置,功能好强大

elasticsearch.yml参数配置的解释

cluster.name: es-cluster #指定es集群名
node.name: xxxx #指定当前es节点名
node.data: false #非数据节点
node.master: false #非master节点
node.attr.rack: r1 #自定义的属性,这是官方文档中自带的
bootstrap.memory_lock: true #开启启动es时锁定内存
network.host: 172.17.0.5 #当前节点的ip地址
http.port: 9200 #设置当前节点占用的端口号,默认9200
discovery.seed_hosts: ["172.17.0.3:9300","172.17.0.4:9300","172.17.0.2:9300"] #启动当前es节点时会去这个ip列表中去发现其他节点,此处不需配置自己节点的ip,这里支持ip和ip:port形式,不加端口号默认使用ip:9300去发现节点
cluster.initial_master_nodes: ["node-1", "node-2", "node-3"] #可作为master节点初始的节点名称,tribe-node不在此列
gateway.recover_after_nodes: 2 #设置集群中N个节点启动时进行数据恢复,默认为1。可选
path.data: /path/to/path  #数据保存目录
path.logs: /path/to/path #日志保存目录
transport.tcp.port: 9300 #设置集群节点发现的端口

这里的

discovery.seed_hosts
在之前几个版本中叫
discovery.zen.ping.unicast.hosts

配置我发现个比较全的,只是有些现在已经不用了,还是很有借鉴价值, elasticsearch配置文件详解

遗留问题

  1. 最后就是本次测试的时候,没有考虑脑裂问题,如有需要请自行添加修改,比如用tribe-node当master,不存数据;又比如加一个
    node.master: true
    的节点,修改
    cluster.initial_master_nodes
    只有这一个master节点
  2. 文中为了简单,没有的把数据存储目录挂载出去,生产环境请勿必挂载出去

本文系原创文章,禁止转载

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: