您的位置:首页 > 其它

ElasticSearch 单机部署多实例环境

2017-12-12 00:00 633 查看


摘要: ElasticSearch 6.0.0
PS:本文针对ElasticSearch版本6.0.0,各位看官看之前麻烦看一下自己使用的版本,版本不一样,使用也不一样。
通常我们认为一个集群是一组拥有相同cluster_name的节点组成的,因此也可以变相的认为单节点就构成了一个集群。
之前有提到如何在服务器上部署es的单个实例,在安装完之后我们来查看这个由单节点构成的集群的cluster health,执行命令:
curl 'http://127.0.0.1:9200/_cluster/health?pretty', 



可以发现这个单节点集群的健康状态显示为yellow,而不是完全健康的状态,这代表着所有的主分片都正常运行,集群可以正常工作,但是副本分片没有全部正常运行。
具体到这个案例中,集群健康显示为yellow的原因是因为所有的副本分片都没有分配到节点中,看上方截图的unassigned shards 。这是因为副本分片本就是用来做冗余备份的,如果只有一个节点,副本分片和主分片都存在同一个节点中,一旦失去唯一节点,则所有数据都会丢失,所以备份没有意义,es没有给副本分片分配到节点中。
既然这个原因是只有单个节点导致的,则可以通过在单机上部署多个节点来解决该问题。对于部署多个节点,官方文档的建议是:可以完全依照启动第一个节点的方式启动一个新的节点,亲测并不能行。。。。
下面是具体操作步骤,遇到的问题和解决方案:
按照官方文档所述,直接又执行了一遍命令:./bin/elasticsearch -d -Ecluster.name=my_cluster -Enode.name=node_2, 现状是直接报错了,错误信息如下:



错误信息提示要么是没有目录的写权限要么是node.max_local_storage_nodes 这个配置参数没有配置或者配置的是1;官方文档搜一下会发现es默认不允许单机开启多个node的,该参数限制了单机可以开启的es实例个数。
    2. 修改$ES_HOME/config下的文件elasticsearch.yml,增加配置项 node.max_local_storage_nodes: 2  
    3. kill之前运行的节点,然后依次执行如下命令:



可以看到创建node_1之后,集群健康状态是yellow,但是创建node_2之后,健康状态就是green了,此时unassigned_shards也是0,如下图:


 
     4. 上面其实已经算是实现了本文的功能,但是可以看到上文所有的操作步骤都是通过命令行实现的,如果需要开启很多个实例并且每个实例都有些不一样的话,显然命令行不是一个明智的选择。可以考虑在$ES_HOME/config下创建单独文件夹来存放节点单独的配置文件,一个节点对应一个文件夹, 操作如下:
[java@plugin01v /usr/java/elasticsearch-6.0.0/config]$ mkdir my_cluster[java@plugin01v /usr/java/elasticsearch-6.0.0/config]$ cp elasticsearch.yml jvm.options log4j2.properties my_cluster/[java@plugin01v /usr/java/elasticsearch-6.0.0/config]$ cd my_cluster/[java@plugin01v /usr/java/elasticsearch-6.0.0/config/my_cluster]$ lltotal 16-rw-rw---- 1 java java 3521 Dec  7 21:37 elasticsearch.yml-rw-rw---- 1 java java 2672 Dec  7 18:20 jvm.options-rw-rw---- 1 java java 5091 Dec  7 18:20 log4j2.properties
再修改elasticsearch.yml的配置内容(此处提一下遇到的坑,网上很多博客里面的配置都是非常老的版本的es了,直接用的话会导致很多报错,读者一定要看下对应的版本):



5. 修改完之后执行命令:./bin/elasticsearch -Epath.conf=/usr/java/elasticsearch-6.0.0/config/my_cluster -Ecluster.name=my_cluster -Enode.name=node_2   会发现有报错,看一下错误信息:



查看了文档和官方论坛,对于为什么不能使用-Epath.conf也没有一个明确的解释,只看到说可以用脚本来启动节点。遂写了两个启动脚本:
#!/bin/bash#es实例启动脚本
CURRENT_PROJECT=$(pwd)/..//节点的配置信息export ES_PATH_CONF=$CURRENT_PROJECT/config/defaultDATA=$CURRENT_PROJECT/dataLOGS=$CURRENT_PROJECT/logsREPO=$CURRENT_PROJECT/backupsNODE_NAME=node_1CLUSTER_NAME=my_cluster
BASH_ES_OPTS="-Epath.data=$DATA -Epath.logs=$LOGS -Epath.repo=$REPO -Enode.name=$NODE_NAME -Ecluster.name=$CLUSTER_NAME"
$CURRENT_PROJECT/bin/elasticsearch -d $BASH_ES_OPTS
6. 分别执行两个脚本,第一个脚本正常运行,第二个就报错了,错误信息是:
max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

对应修改如下:
[pengzecheng@plugin01v /usr/java/elasticsearch-6.0.0/logs1] sudo su   [root@plugin01v /usr/java/elasticsearch-6.0.0/scripts] ulimit -n    //查看最大文件描述符个数        1024[root@plugin01v /usr/java/elasticsearch-6.0.0/scripts] ulimit -n 65536  //设置[root@plugin01v /usr/java/elasticsearch-6.0.0/scripts] sysctl -w vm.max_map_count=262144[root@plugin01v /usr/java/elasticsearch-6.0.0/scripts] su java     //切换到elasticsearch的执行账号,注意此时不可以退出root,因为文件描述符的设置只在当前session生效[java@plugin01v /usr/java/elasticsearch-6.0.0/scripts] sh my_cluster_node_2.sh   //执行第二个脚本成功
最后,查看一下各个节点对应的最大文件描述符,执行命令:
curl -XGET 'localhost:9200/_nodes/stats/process?filter_path=**.max_file_descriptors&pretty'



符合预期。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: