Zookeeper日记——记录一次集群启动错误排查
2017-07-18 22:29
597 查看
配置和启动Zookeeper主要分为以下三步
修改zoo.cfg
修改dataDir和添加服务器列表(配置好hosts)
在不同的服务器创建不同的myid
在master上创建
在slave1上创建
在slave2上创建
然后查看Zookeeper运行状态时发现并没有在启动
终端输出
查看日志发现
查看Stack Overflow后有种解决办法是在不同的服务器上把Zookeeper中的配置文件中指向自己的那个host改为0.0.0.0
如master上就改为
slave1和slave2的配置文件也是这样改,启动后发现启动成功了
1.创建zoo.cfg
在Zookeeper的conf文件夹下复制zoo_sample.cfg,改名为zoo.cfgcp zoo_sample.cfg zoo.cfg
修改zoo.cfg
vi zoo.cfg
修改dataDir和添加服务器列表(配置好hosts)
dataDir=/opt/zookeeper server.1=master:2888:3888 server.2=slave1:2888:3888 server.3=slave2:2888:3888
2.创建文件夹
sudo mkdir /opt/zookeeper
在不同的服务器创建不同的myid
在master上创建
echo 1 >>/opt/zookeeper/myid
在slave1上创建
echo 2 >>/opt/zookeeper/myid
在slave2上创建
echo 3 >>/opt/zookeeper/myid
3.启动Zookeeper
在不同服务器上Zookeeper的bin目录下运行该命令./zkServer.sh start
然后查看Zookeeper运行状态时发现并没有在启动
./zkServer.sh status
终端输出
ZooKeeper JMX enabled by default Using config: /root/zookeeper-3.4.10/bin/../conf/zoo.cfg Error contacting service. It is probably not running.
查看日志发现
Cannot open channel to 3 at election address
查看Stack Overflow后有种解决办法是在不同的服务器上把Zookeeper中的配置文件中指向自己的那个host改为0.0.0.0
如master上就改为
server.1=0.0.0.0:2888:3888 server.2=slave1:2888:3888 server.3=slave2:2888:3888
slave1和slave2的配置文件也是这样改,启动后发现启动成功了
相关文章推荐
- apache使用cronolog日志轮询无法启动排查错误记录
- 记录一次Android交叉编译ffmpeg排查错误
- 记录一次php-fpm 启动加载php.ini 错误问题
- 记录一次linux错误的修复(linux启动出现UNEXPECTED INCONSISTENCY;RUN fsck MANUALLY)
- 一次nginx 504 Gateway Time-out错误排查、解决记录
- 问题记录:hadoop+zookeeper高可用性集群启动时出现namenode均为standby状态
- zookeeper集群启动错误
- 记录一次mariadb启动错误
- 一次nginx 504 Gateway Time-out错误排查、解决记录__转载
- 启动zookeeper 单个节点或者集群中错误处理
- 记一次zookeeper集群搭建错误的排除
- zookeeper启动没发现错误,但是是失败的
- zookeeper集群shell脚本启动
- puppet一次惨痛错误学习记录
- 一次关于Redis内存诡异增长的排查过程实战记录
- 【troubleshooting】记一次Kafka集群重启导致消息重复消费问题处理记录
- 记录一次eclipse的错误:“server tomcat v7.0 server at localhost was unable to start within 45 seconds”的问题解决思路
- ZooKeeper系统模型之集群版服务器启动过程。
- cubietruck启动错误信息记录
- 记录一次apache启动失败的故障排除过程