Hadoop集群搭建过程问题总结
2017-07-23 17:19
253 查看
1.datanode节点无法启动
(1)无法与slave是通信
检查slaves文件slave节点名称是否正确
检查防火墙是否关闭(使用setup命令关闭防火墙,iptables -F 命令有时会失效,chkconfig IPtables on 命令需重启生效)
检查/etc/hosts 是否配置正确
(2)clusterID不匹配
DataNode与namenode中的clusterID不匹配:~/hadoopdata/dfs/namesecondary/current/VERSION中clusterID修改为namenode中的clusterID。
当我们执行文件系统格式化时,会在namenode数据文件夹(即配置文件中dfs.name.dir在本地系统的路径)中保存一个current/VERSION文件,记录namespaceID,标识了所格式化的 namenode的版本。如果我们频繁的格式化namenode,那么datanode中保存(即配置文件中dfs.data.dir在本地系统的路径)的current/VERSION文件只是你第一次格式化时保存的namenode的ID,因此就会造成datanode与namenode之间的id不一致。
2.hbase-1.0.2启动成功,但无法访问master:60010
在hbase-site.xml中添加
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
3.退出安全模式-safemode
hdfs dfsadmin --safenode leave
4.hadoop集群启动不成功-格式化多次
关闭集群,删除hadoopdata目录,删除Hadoop安装目录下的logs文件夹中的所有日志文件。重新格式化,再次启动集群。
5.出现jps,hadoop.hdfs等命令无法识别
~/.bash_profile文件环境变量配置错误,请仔细检查。若开始时命令可以识别,重启或一段时间后无法识别,重新source ~/.bash_profile.
6.Hive安装报错:Terminal initialization failed; falling back to unsupported
Hadoop目录下存在老版本的jline,将hive文件中的jline-2.12.jar替换老版jline。重新启动Hadoop集群,再次启动hive,问题解决.
7.若IP为自动获取,集群无法启动,可能是ip改变。
(1)无法与slave是通信
检查slaves文件slave节点名称是否正确
检查防火墙是否关闭(使用setup命令关闭防火墙,iptables -F 命令有时会失效,chkconfig IPtables on 命令需重启生效)
检查/etc/hosts 是否配置正确
(2)clusterID不匹配
DataNode与namenode中的clusterID不匹配:~/hadoopdata/dfs/namesecondary/current/VERSION中clusterID修改为namenode中的clusterID。
当我们执行文件系统格式化时,会在namenode数据文件夹(即配置文件中dfs.name.dir在本地系统的路径)中保存一个current/VERSION文件,记录namespaceID,标识了所格式化的 namenode的版本。如果我们频繁的格式化namenode,那么datanode中保存(即配置文件中dfs.data.dir在本地系统的路径)的current/VERSION文件只是你第一次格式化时保存的namenode的ID,因此就会造成datanode与namenode之间的id不一致。
2.hbase-1.0.2启动成功,但无法访问master:60010
在hbase-site.xml中添加
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
3.退出安全模式-safemode
hdfs dfsadmin --safenode leave
4.hadoop集群启动不成功-格式化多次
关闭集群,删除hadoopdata目录,删除Hadoop安装目录下的logs文件夹中的所有日志文件。重新格式化,再次启动集群。
5.出现jps,hadoop.hdfs等命令无法识别
~/.bash_profile文件环境变量配置错误,请仔细检查。若开始时命令可以识别,重启或一段时间后无法识别,重新source ~/.bash_profile.
6.Hive安装报错:Terminal initialization failed; falling back to unsupported
Hadoop目录下存在老版本的jline,将hive文件中的jline-2.12.jar替换老版jline。重新启动Hadoop集群,再次启动hive,问题解决.
7.若IP为自动获取,集群无法启动,可能是ip改变。
相关文章推荐
- hadoop 1.x集群搭建及搭建过程遇到的问题总结
- hadoop集群搭建过程中所遇问题总结
- HADOOP集群搭建过程问题记录
- Hadoop-2.8.0集群搭建、hadoop源码编译和安装、host配置、ssh免密登录、hadoop配置文件中的参数配置参数总结、hadoop集群测试,安装过程中的常见错误
- Hadoop集群搭建过程中的常见问题(二)
- Hadoop集群搭建过程中的常见问题(一)
- Hadoop集群搭建及测试过程中碰到的问题汇总
- Hadoop集群搭建过程中DataNode与TaskTracker节点的问题
- Hadoop搭建过程中的问题总结
- hadoop集群搭建过程中遇到的问题
- centos下hadoop集群搭建详细过程
- 【干货】Apache Hadoop 2.8 完全分布式集群搭建超详细过程,实现NameNode HA、ResourceManager HA高可靠性...
- Hadoop集群搭建遇上的问题
- 搭建Zookeeper与Hbase过程及遇到的问题总结
- CentOS6.5搭建Hadoop2.7集群环境前要注意的问题
- hadoop-2.7.2集群的搭建过程
- 对hadoop集群安装一些问题总结
- Hadoop,HBase集群环境搭建的问题集锦(一)
- 自己搭建的hadoop集群的全过程记录
- centos下hadoop2.6.0集群搭建详细过程