您的位置:首页 > Web前端 > Node.js

hadoop2.2集群搭建问题只能启动一个datanode问题

2014-04-14 11:12 573 查看
按照教程http://cn.soulmachine.me/blog/20140205/搭建总是出现如下问题:

2014-04-1323:53:45,450INFOorg.apache.hadoop.hdfs.server.common.Storage:Lockon/home/hadoop/local/var/hadoop/hdfs/datanode/in_use.lockacquiredbynodename19771@node-10-00.example.com
2014-04-1323:53:45,450INFOorg.apache.hadoop.hdfs.server.common.Storage:Cannotlockstorage/home/hadoop/local/var/hadoop/hdfs/datanode.Thedirectoryisalreadylocked
2014-04-1323:53:45,451WARNorg.apache.hadoop.hdfs.server.common.Storage:Ignoringstoragedirectory/home/hadoop/local/var/hadoop/hdfs/datanodeduetoanexception
java.io.IOException:Cannotlockstorage/home/hadoop/local/var/hadoop/hdfs/datanode.Thedirectoryisalreadylocked
atorg.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.lock(Storage.java:637)
atorg.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:460)
atorg.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:152)
atorg.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:219)
atorg.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:837)
atorg.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:808)
atorg.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:280)
atorg.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:222)
atorg.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:664)
也就是每次启动,只能启动一个datanode,一开始想是什么进程访问了这个目录,一直被锁定,突然意识我安装的集群式redhat集群,已经配置好了redhatGFS,而我把data放在了用户目录下,这样其中一个datanode启动之后也就一直占用着这个目录,其他机器也就不好访问这个目录,这样也就报错了。
这样我将数据目录设到/var目录下,这个问题也就解决了。

                                            
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: