启动Hadoop时,DataNode启动后一会儿自动消失的解决方法
2017-01-31 11:54
633 查看
查看slaver1/2的logs,发现
FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID =
CID-af6f15aa-efdd-479b-bf55-77270058e4f7
; datanode clusterID =
CID-736d1968-8fd1-4bc4-afef-5c72354c39ce
从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。
(在slaver端上修改)
打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。
Hadoop配置完成!
出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
===================4.13更新=================
解决主机节点 txid不一致问题
把主机下namenode(name文件夹)下的current文件删除或者移走,重新格式化
然后再改slaver1/2的 clusterID
FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000
java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID =
CID-af6f15aa-efdd-479b-bf55-77270058e4f7
; datanode clusterID =
CID-736d1968-8fd1-4bc4-afef-5c72354c39ce
从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。
(在slaver端上修改)
打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。
Hadoop配置完成!
出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
===================4.13更新=================
解决主机节点 txid不一致问题
把主机下namenode(name文件夹)下的current文件删除或者移走,重新格式化
然后再改slaver1/2的 clusterID
相关文章推荐
- 启动Hadoop时,DataNode启动后一会儿自动消失的解决方法
- 启动Hadoop时,DataNode启动后一会儿自动消失的解决方法
- hadoop 完全分布式 下 datanode无法启动解决方法
- hadoop中datanode消失挂掉的原因及解决方法(1)
- hadoop中Datanode进程无法启动解决方法。
- Hadoop集群无法启动datanode的解决方法
- hadoop 安装出现的几种异常的处理方法,hadoop无法启动,no namenode to stop问题的解决方法,no datanode
- 【Hadoop datanode重新加载失败无法启动现象解决方法介绍】
- hadoop运行故障问题解决1——datanode节点启动后自动关闭
- Hadoop在linux下无法启动DataNode解决方法
- 配置集群,tasktracker与datanode启动一会儿后,自动消失
- hadoop 完全分布式 下 datanode无法启动解决方法
- hadoop 完全分布式 下 datanode无法启动解决方法
- hadoop故障记录-hadoop启动后datanode起不来/起来了过一段时间自动消失
- CentOS7中安装Hadoop2.6.4,能够正常启动,但datanode的数目为0的解决方法
- 解决hadoop集群中datanode启动后自动关闭的问题
- hadoop 完全分布式 下 datanode无法启动解决方法
- hadoop中DataNode消失挂掉的原因及解决方法
- hadoop 完全分布式 下 datanode无法启动解决方法
- 解决hadoop集群中datanode启动后自动关闭的问题