hadoop2集群中的datanode启动以后自动关闭的问题
2016-05-09 08:59
861 查看
今天在启动前几天搭建成功的hadoop集群的时候,出现了datanode启动之后自动关闭的情况,经过查询之后发现问题产生的原因是:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
(该路径是配置文件hdfs-site.xml中指定的dfs.tmp.dir路径,如果在hdfs-site.xml中没有配置该属性,则该路径将为core-site.xml文件中指定的hadoop.tmp.dir路径)
第一种方法:
删除运行datanode的机器上的tmp文件夹,重新启动集群,启动成功!
(但是上面的方法会将hdfs中的所有文件删除,如果上面存有重要的文件,并不建议这么做!)
第二种方法:
将namenode机器上的dfs.tmp.dir/tmp/dfs/name/current里面的VERSION文件的clusterID属性值赋值给datanode机器上的dfs.tmp.dir/tmp/dfs/data/current里面的VERSION文件中的clusterID属性。让两个保持一致。
至此,重新启动集群,问题解决!
(该路径是配置文件hdfs-site.xml中指定的dfs.tmp.dir路径,如果在hdfs-site.xml中没有配置该属性,则该路径将为core-site.xml文件中指定的hadoop.tmp.dir路径)
第一种方法:
删除运行datanode的机器上的tmp文件夹,重新启动集群,启动成功!
(但是上面的方法会将hdfs中的所有文件删除,如果上面存有重要的文件,并不建议这么做!)
第二种方法:
将namenode机器上的dfs.tmp.dir/tmp/dfs/name/current里面的VERSION文件的clusterID属性值赋值给datanode机器上的dfs.tmp.dir/tmp/dfs/data/current里面的VERSION文件中的clusterID属性。让两个保持一致。
至此,重新启动集群,问题解决!
相关文章推荐
- LeetCode 117. Populating Next Right Pointers in Each Node II
- LeetCode 116. Populating Next Right Pointers in Each Node
- Ambari node heartbeat lost
- Node中的全局对象和全局变量
- ( Leetcode 25 ) Reverse Nodes in k-Group
- Node.js第一讲
- 一个使用了nodejs+express的简单jsonp接口模拟脚本
- nodepad++快捷键收集
- 在Node.js中实现任务调度与执行
- ionic+nodejs开发遇到的跨域和post请求数据问题
- JavaScript_查找指定节点之后的下一个元素节点_getNextElement(node)_JavaScript扩展
- node.js 创建子进程 II
- Permission denied: user=root, access=WRITE, inode="/":hadoopuser:supergroup:drwxr-xr-x
- (转)DOM中的动态NodeList与静态NodeList
- Hadoop2.6的DataNode启动不了
- leetcode 19. Remove Nth Node From End of List-移除链表元素|双指针
- LeetCode 024 Swap Nodes in Pairs
- nodejs01--什么是nodejs,nodejs的基本使用
- 用一个小例子,来分析nodejs的异步调用的顺序
- NodeJS虚拟机