解决hadoop集群中datanode启动后自动关闭的问题
2017-05-07 11:55
627 查看
相信大部分的Hadoop的初学者都会都会遇到这样的问题: 在配置好Hadoop集群后,当执行sbin/start-dfs.sh时会发现datanode进程启动后立即关闭。我当时遇到这样的问题时一脸懵逼,以为是自己配置Hadoop的参数出现错误。结果反复的重新配置,重新格式化,然而并没有什么用处。废话不多说了,现在开始介绍问题的产生以及解决方案吧。
问题:Namenode上namespaceID与datanode上namespaceID不一致。问题产生原因:每次namenode format会重新创建一个namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode format清空了namenode下的数据,但是没有清空datanode下的数据,所以造成namenode节点上的namespaceID与datanode节点上的namespaceID不一致。启动失败。
解决方法:
(1)停掉集群服务
(2)在出问题的datanode节点上删除data目录,data目录即是在hdfs-site.xml文件中配置的dfs.data.dir目录,本机器上那个是/hadoop/hadoop-2.7.1/hdfs/dfs/data/ (注:在所有的datanode和namenode节点上均执行了该步骤。以防删掉后不成功,可以先把data目录复制一份)。
(3)格式化namenode.
(4)重新启动集群。
问题解决。
谨记:这种方法带来的一个副作用就是会造成hdfs上的所有数据丢失。
相关文章推荐
- 解决hadoop集群中datanode启动后自动关闭的问题
- 解决hadoop集群中datanode启动后自动关闭的问题
- 解决hadoop集群中datanode启动后自动关闭的问题
- hadoop运行故障问题解决1——datanode节点启动后自动关闭
- hadoop集群启动后datanode和namenodemanager关闭问题解决
- hadoop2集群中的datanode启动以后自动关闭的问题
- hadoop集群中datanode启动几秒钟自动关闭
- 解决hadoop集群环境datanode无法启动的问题
- 搭建Hadoop2集群出现Datanode启动不了的问题及解决办法
- 在搭建好Hadoop集群后,namenode与datanode两个过程不能起来,或者一个启动之后另一个自动关闭
- Hadoop的DataNode无法启动问题解决
- hadoop 平台解决datanode无法启动问题
- hadoop 节点链接不通、datanode无法启动问题解决
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- hadoop2.2集群搭建问题只能启动一个datanode问题
- Hadoop 在重启或者多次格式化后无法启动datanode问题的解决
- 启动Hadoop时,DataNode启动后一会儿自动消失的解决方法
- 启动Hadoop时,DataNode启动后一会儿自动消失的解决方法
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- hadoop集群启动是的datanode启动时碰到的问题