关于搭建Hadoop过程中出现的几个错误
2012-11-20 11:26
369 查看
最近因工作需要要打个Hadoop集群,过程中碰到一些问题,也费了些精力去解决,现将这些问题记录一下。
1. root与CDH3u4
CDH默认是不支持root用户的, 如果仍想用 root 来搭建,可以从Apache Hadoop里下载你要的版本来搭建,但是仍会出现
Could not create the Java Virtual machine. unrecognized option: -jvm
的错误,这时要去编辑 bin/hadoop 脚本,找到里面的判断 if [[$EUID -eq 0]]; then
HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"
else
HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
fi
因为当前的$EUID 是root, 为零,所以会执行 then 里的 语句,要解决这个问题只要把 then 里的 -jvm server 改为 -server(及和 else 的语句相同即可)。
2. 注意每次搭建后,都一定要 bin/hadoop namenode -format, 不然会连不通的, Already try xx times(), blahblahblah .
3. 运行 bin/hadoop dfsadmin -report 后,结果如下:
Configured Capacity: 0 (0 KB)
Present Capacity: 0 (0 KB)
DFS Remaining: 0 (0 KB)
DFS Used: 0 (0 KB)
DFS Used%: �%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 0 (0 total, 0 dead)
我遇到的这个问题,多半是因为重新运行了 bin/hadoop namenode -format 命令, 因为上一次format的数据还没清空。所以解决办法是把hdfs-site.xml中配置的 dfs.name.dir 和 dfs.data.dir(如果有重要数据,这个就不要删了) 全删了,再重新 format 就行了。
4. 使用 hadoop fs -put file1.txt in 上传文件到HDFS in 目录下时, 出现
ERROR: hdf.DFSclient: Exception closing file /user/root/in : org.apache.ipc.
RemoteException: java.io.IOException: File /usr/root/in could only be replicate to 0 nodes, instead of 1.
这应该是HDFS没正常启动。用 hadoop namenode format 重新格式化一次就能解决问题了。http://blog.csdn.net/wh62592855/article/details/5744158
如果还不行,则可能是开启了防火墙和safemode on的问题。 参 http://hi.baidu.com/xiaomi/item/49d16a90720d16f629164727 http://www.oschina.net/question/188742_41144
1. root与CDH3u4
CDH默认是不支持root用户的, 如果仍想用 root 来搭建,可以从Apache Hadoop里下载你要的版本来搭建,但是仍会出现
Could not create the Java Virtual machine. unrecognized option: -jvm
的错误,这时要去编辑 bin/hadoop 脚本,找到里面的判断 if [[$EUID -eq 0]]; then
HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"
else
HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
fi
因为当前的$EUID 是root, 为零,所以会执行 then 里的 语句,要解决这个问题只要把 then 里的 -jvm server 改为 -server(及和 else 的语句相同即可)。
2. 注意每次搭建后,都一定要 bin/hadoop namenode -format, 不然会连不通的, Already try xx times(), blahblahblah .
3. 运行 bin/hadoop dfsadmin -report 后,结果如下:
Configured Capacity: 0 (0 KB)
Present Capacity: 0 (0 KB)
DFS Remaining: 0 (0 KB)
DFS Used: 0 (0 KB)
DFS Used%: �%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 0 (0 total, 0 dead)
我遇到的这个问题,多半是因为重新运行了 bin/hadoop namenode -format 命令, 因为上一次format的数据还没清空。所以解决办法是把hdfs-site.xml中配置的 dfs.name.dir 和 dfs.data.dir(如果有重要数据,这个就不要删了) 全删了,再重新 format 就行了。
4. 使用 hadoop fs -put file1.txt in 上传文件到HDFS in 目录下时, 出现
ERROR: hdf.DFSclient: Exception closing file /user/root/in : org.apache.ipc.
RemoteException: java.io.IOException: File /usr/root/in could only be replicate to 0 nodes, instead of 1.
这应该是HDFS没正常启动。用 hadoop namenode format 重新格式化一次就能解决问题了。http://blog.csdn.net/wh62592855/article/details/5744158
如果还不行,则可能是开启了防火墙和safemode on的问题。 参 http://hi.baidu.com/xiaomi/item/49d16a90720d16f629164727 http://www.oschina.net/question/188742_41144
相关文章推荐
- hadoop多节点集群搭建过程中错误:No such file or directoryhdfs,logs提示出现出现^M的解决办法
- 关于Docker安装过程中出现 TLS handshake timeout错误的解决办法
- 关于flash player更新过程中出现连接错误
- Hadoop搭建过程中出现的问题
- 关于windows安装python过程中出现error 2503 2502错误的解决方法
- eclipse搭建Springmvc工程中容易出现的几个错误
- 关于2003Server下IIS运行.net程序IE无法访问出现403.1错误的解决过程
- hadoop2.4.1源码在64位系统编译过程中遇到的几个错误及解决方法
- Hadoop-2.8.0集群搭建、hadoop源码编译和安装、host配置、ssh免密登录、hadoop配置文件中的参数配置参数总结、hadoop集群测试,安装过程中的常见错误
- LAMP环境搭建过程中遇到的几个错误
- 搭建SSH项目过程出现的错误
- hadoop集群搭建过程中几个配置参数
- hadoop 运行过程中出现Call to localhost/127.0.0.1:9000 failed on connection exception错误。
- hadoop安装过程出现Incompatible namespaceIDs 错误解决方案
- hadoop2.6、hbase0.96、hive1.13环境搭建过程错误总结
- 关于链接过程中出现的“找到一个或多个多重定义的符号”和“无法解析的外部符号”错误的探究
- 关于mapreduce过程中出现的错误:Too many fetch-failures
- 关于SSH2框架搭建过程中出现的问题的总结
- 关于 12c GI 安装过程中,如果使用 NFS 方式提供 ASM 磁盘, 出现 ORA-15018 ORA-15072 ORA-15080 错误 (文档 ID 1945862.1)