elasticsearch5.2集群部署
2018-01-11 17:33
405 查看
本文主要介绍两节点集群部署
一、实验环境
节点1:192.168.115.11
节点2:192.168.115.12
二、安装配置
具体部署过程见单机版:http://blog.csdn.net/wwd0501/article/details/76992355
两台机器都先安装完成,之后修改配置文件
注意:
为了达到es的集群必须修改cluster.name和node.name。
cluster.name必须保持一致。
node.name必须唯一。
不同的集群用名字来区分,es会自动发现在同一网段下的es,配置成相同集群名字的各个节点形成一个集群。如果在同一网段下有多个集群,就可以用这个属性来区分不同的集群
1.修改elasticsearch.yml配置文件
192.168.115.11机器
[html] view plain copy print?cluster.name: my-application(集群名)
node.name: node-1(节点名)
node.master: true (主节点)
node.data: true (数据节点)
path.data: /data/elasticsearch5/data(数据位置)
path.logs: /data/elasticsearch5/logs(日志位置)
network.host: 192.168.115.11(绑定ip)
http.port: 9200(http服务端口)
transport.tcp.port: 9201(节点通信端口)
discovery.zen.ping.unicast.hosts: [“192.168.115.11”, “192.168.115.12”]
discovery.zen.minimum_master_nodes: 1 # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master(防止脑裂)
#增加新的参数head插件可以访问es
http.cors.enabled: true
http.cors.allow-origin: ”*”
http.cors.allow-origin: "*"
192.168.115.12机器
[html] view plain copy print?cluster.name: my-application(集群名)
node.name: node-2(节点名)
node.master: true (主节点)
node.data: true (数据节点)
path.data: /data/elasticsearch5/data(数据位置)
path.logs: /data/elasticsearch5/logs(日志位置)
network.host: 192.168.115.11(绑定ip)
http.port: 9200(http服务端口)
transport.tcp.port: 9201(节点通信端口)
discovery.zen.ping.unicast.hosts: [“192.168.115.11”, “192.168.115.12”]
discovery.zen.minimum_master_nodes: 1 # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master(防止脑裂)
#增加新的参数head插件可以访问es
http.cors.enabled: true
http.cors.allow-origin: ”*”
#增加新的参数head插件可以访问es
http.cors.enabled: true
http.cors.allow-origin: "*"
2.启动服务
分别启动两台服务
sh bin/elasticsearch -d
三、验证
通过head插件连接查看(head插件在其中一台机器安装就行,head插件安装过程:http://blog.csdn.net/wwd0501/article/details/77001529)
六.安全提示
注意:务必绑定内网ip,务必修改默认端口号。
七.集群失败可能的原因
集群名不一致,网络连接不上,没有主节点,discovery.zen.minimum_master_nodes设置不对
八.discovery.zen.minimum_master_nodes疑问
按照文档来说这个值应该为节点数N/2+1,比如两个节点那么就是2/2+1=2
而在我的环境中这个值为2会导致集群失败。
一、实验环境
节点1:192.168.115.11
节点2:192.168.115.12
二、安装配置
具体部署过程见单机版:http://blog.csdn.net/wwd0501/article/details/76992355
两台机器都先安装完成,之后修改配置文件
注意:
为了达到es的集群必须修改cluster.name和node.name。
cluster.name必须保持一致。
node.name必须唯一。
不同的集群用名字来区分,es会自动发现在同一网段下的es,配置成相同集群名字的各个节点形成一个集群。如果在同一网段下有多个集群,就可以用这个属性来区分不同的集群
1.修改elasticsearch.yml配置文件
192.168.115.11机器
[html] view plain copy print?cluster.name: my-application(集群名)
node.name: node-1(节点名)
node.master: true (主节点)
node.data: true (数据节点)
path.data: /data/elasticsearch5/data(数据位置)
path.logs: /data/elasticsearch5/logs(日志位置)
network.host: 192.168.115.11(绑定ip)
http.port: 9200(http服务端口)
transport.tcp.port: 9201(节点通信端口)
discovery.zen.ping.unicast.hosts: [“192.168.115.11”, “192.168.115.12”]
discovery.zen.minimum_master_nodes: 1 # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master(防止脑裂)
#增加新的参数head插件可以访问es
http.cors.enabled: true
http.cors.allow-origin: ”*”
cluster.name: my-application(集群名) node.name: node-1(节点名) node.master: true (主节点) node.data: true (数据节点) path.data: /data/elasticsearch5/data(数据位置) path.logs: /data/elasticsearch5/logs(日志位置) network.host: 192.168.115.11(绑定ip) http.port: 9200(http服务端口) transport.tcp.port: 9201(节点通信端口) discovery.zen.ping.unicast.hosts: ["192.168.115.11", "192.168.115.12"] discovery.zen.minimum_master_nodes: 1 # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master(防止脑裂)
增加新的参数head插件可以访问es
http.cors.enabled: truehttp.cors.allow-origin: "*"
192.168.115.12机器
[html] view plain copy print?cluster.name: my-application(集群名)
node.name: node-2(节点名)
node.master: true (主节点)
node.data: true (数据节点)
path.data: /data/elasticsearch5/data(数据位置)
path.logs: /data/elasticsearch5/logs(日志位置)
network.host: 192.168.115.11(绑定ip)
http.port: 9200(http服务端口)
transport.tcp.port: 9201(节点通信端口)
discovery.zen.ping.unicast.hosts: [“192.168.115.11”, “192.168.115.12”]
discovery.zen.minimum_master_nodes: 1 # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master(防止脑裂)
#增加新的参数head插件可以访问es
http.cors.enabled: true
http.cors.allow-origin: ”*”
cluster.name: my-application(集群名) node.name: node-2(节点名) node.master: true (主节点) node.data: true (数据节点) path.data: /data/elasticsearch5/data(数据位置) path.logs: /data/elasticsearch5/logs(日志位置) network.host: 192.168.115.11(绑定ip) http.port: 9200(http服务端口) transport.tcp.port: 9201(节点通信端口) discovery.zen.ping.unicast.hosts: ["192.168.115.11", "192.168.115.12"] discovery.zen.minimum_master_nodes: 1 # 由于只部署两个节点,因此设置为1,否则当master宕机,将无法重新选取master(防止脑裂)
#增加新的参数head插件可以访问es
http.cors.enabled: true
http.cors.allow-origin: "*"
2.启动服务
分别启动两台服务
sh bin/elasticsearch -d
三、验证
通过head插件连接查看(head插件在其中一台机器安装就行,head插件安装过程:http://blog.csdn.net/wwd0501/article/details/77001529)
六.安全提示
注意:务必绑定内网ip,务必修改默认端口号。
七.集群失败可能的原因
集群名不一致,网络连接不上,没有主节点,discovery.zen.minimum_master_nodes设置不对
八.discovery.zen.minimum_master_nodes疑问
按照文档来说这个值应该为节点数N/2+1,比如两个节点那么就是2/2+1=2
而在我的环境中这个值为2会导致集群失败。
</div>
相关文章推荐
- elasticsearch5.2集群部署
- Docker部署Elasticsearch集群
- elasticsearch 集群的安装部署
- elasticsearch5.2局域网集群搭建
- elasticsearch2.4.0三节点集群部署
- Elasticsearch5.1集群+kibana部署
- ElasticSearch2.2 集群安装部署
- elasticsearch5.2 集群
- 部署 Kubernetes 集群日志插件 Fluentd、Elasticsearch、Kibana
- elasticsearch6.2.3安装以及单机集群部署
- ElasticSearch 系列 (2) 集群安装部署
- elasticsearch集群安装部署、监控以及架设sql引擎
- CentOS 6.8 安装elasticsearch5.2集群
- elasticsearch5.0集群部署及故障测试
- ElasticSearch5.x实践_day01_02_ElasticSearch集群部署
- Elasticsearch5.4集群(一)安装部署
- centos7下部署elasticSearch集群
- CentOS7部署ElasticSearch-2.1.1集群
- Centos7.3部署Elasticsearch5.4.0集群
- ElasticSearch学习笔记-集群安装部署