HADOOP命令在getting client out of cache: org.apache.hadoop.ipc.Client卡一段时间的调试思路
2017-03-04 12:11
831 查看
一旦卡超过10秒通常来讲是属于网络问题,
于是写了如下一段程序进行调试
在打印出标题中的那一行时暂停程序,发现程序停在了对fs.defaultFS的DNS解析上面。
尝试修改主机的hosts文件,这个问题可以解决。
另外尝试将配置成与hdfs-site.xml中dfs.nameservices不一致,这个问题也可以解决,
网上搜索这两个配置要求一致,但实测NameNode可以正常运行,跑MapReduce也没啥问题,所以不知道后续还有没有坑。
-------------------------------------------------------------后续--------------------------------------------------------------------------
果然还是不放心,搜到Hadoop的官方帮助文档里面找到了必须一致的原因。
而Hadoop会去DNS服务器解析 fs.defaultFS 的authority是不是一个主机,
所以最终是修改hosts使 fs.defaultFS 的authority指向0.0.0.0来加速这个问题,还要同步各个机器上的hosts文件。
当然如果有内网DNS服务器就不用这么麻烦了。
于是写了如下一段程序进行调试
public static void main( String[] args ) throws Exception { Configuration configuration = new Configuration(); configuration.addResource("core-site.xml"); configuration.addResource("hdfs-site.xml"); int res = ToolRunner.run(configuration, new org.apache.hadoop.fs.FsShell(), new String[]{"-ls", "/hbase"}); System.out.println(res); }
在打印出标题中的那一行时暂停程序,发现程序停在了对fs.defaultFS的DNS解析上面。
尝试修改主机的hosts文件,这个问题可以解决。
另外尝试将配置成与hdfs-site.xml中dfs.nameservices不一致,这个问题也可以解决,
网上搜索这两个配置要求一致,但实测NameNode可以正常运行,跑MapReduce也没啥问题,所以不知道后续还有没有坑。
-------------------------------------------------------------后续--------------------------------------------------------------------------
果然还是不放心,搜到Hadoop的官方帮助文档里面找到了必须一致的原因。
而Hadoop会去DNS服务器解析 fs.defaultFS 的authority是不是一个主机,
所以最终是修改hosts使 fs.defaultFS 的authority指向0.0.0.0来加速这个问题,还要同步各个机器上的hosts文件。
当然如果有内网DNS服务器就不用这么麻烦了。
相关文章推荐
- hbase异常org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hbase.ClockOutOfSyncException): org.a
- Hadoop异常 hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException
- [hadoop源码阅读][6]-org.apache.hadoop.ipc-ipc.client
- org.apache.hadoop.ipc.Client: Retrying connect to server异常的解决
- org.apache.hadoop.ipc.Client: Retrying connect to server
- org.apache.hadoop.ipc.Client: Retrying connect to server异常的解决
- hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException:
- Hadoop HA HDFS启动错误之org.apache.hadoop.ipc.Client: Retrying connect to server问题解决
- application master 持续org.apache.hadoop.ipc.Client: Retrying connect to server
- 向HDFS上传文件时报错16/07/23 01:13:30 WARN hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.Rem
- Hbase启动从节点报错:FATAL org.apache.hadoop.hbase.regionserver.HRegionServer:...ClockOutOfSyncException
- org.apache.hadoop.ipc.Client: Retrying connect to server
- hadoop遇到的问题: org.apache.hadoop.ipc.Client: Retrying connect to server异常的解决
- org.apache.hadoop.ipc.Client - Retrying connect to server: 0.0.0.0/0.0.0.0:10020. Already tried 0 ti
- org.apache.hadoop.hbase.ClockOutOfSyncException
- hdfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: java.io.IOException: 分类: hadoop 2015-03-21 10:56 57人阅读 评论(0) 收藏
- hadoop数据节点通信异常【启动hadoop集群遇到错误org.apache.hadoop.ipc.Client: Retrying connect to server】
- 【解决】org.apache.hadoop.hbase.ClockOutOfSyncException:
- hadoop异常:虚拟机上搭建分布式集群org.apache.hadoop.ipc.Client: Retrying connect to server
- org.apache.hadoop.ipc.Client: Retrying connect to server: localhost/127.0.0.1:7359. Already tried 7