您的位置:首页 > 运维架构 > Apache

HADOOP命令在getting client out of cache: org.apache.hadoop.ipc.Client卡一段时间的调试思路

2017-03-04 12:11 831 查看
一旦卡超过10秒通常来讲是属于网络问题,

于是写了如下一段程序进行调试

public static void main( String[] args ) throws Exception {
Configuration configuration = new Configuration();
configuration.addResource("core-site.xml");
configuration.addResource("hdfs-site.xml");

int res = ToolRunner.run(configuration, new org.apache.hadoop.fs.FsShell(), new String[]{"-ls", "/hbase"});
System.out.println(res);
}


在打印出标题中的那一行时暂停程序,发现程序停在了对fs.defaultFS的DNS解析上面。

尝试修改主机的hosts文件,这个问题可以解决。

另外尝试将配置成与hdfs-site.xml中dfs.nameservices不一致,这个问题也可以解决,

网上搜索这两个配置要求一致,但实测NameNode可以正常运行,跑MapReduce也没啥问题,所以不知道后续还有没有坑。

-------------------------------------------------------------后续--------------------------------------------------------------------------

果然还是不放心,搜到Hadoop的官方帮助文档里面找到了必须一致的原因。



而Hadoop会去DNS服务器解析 fs.defaultFS 的authority是不是一个主机,

所以最终是修改hosts使 fs.defaultFS 的authority指向0.0.0.0来加速这个问题,还要同步各个机器上的hosts文件。

当然如果有内网DNS服务器就不用这么麻烦了。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐