您的位置:首页 > 运维架构

Spark集群工作异常,无法读取Hadoop集群文件处理办法

2017-08-10 23:26 239 查看
在spark集群上,进行spark计算,连续执行两次都出现如下问题,问题原因是spark找不到Hadoop集群上的spark.txt文件,问题展现如下:

7/08/11 07:04:11 WARN hdfs.DFSClient: DFS Read
org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-1997779725-192.168.0.117-1502149524018:blk_1073741825_1001 file=/spark.txt



解决思路,是由于Hadoop集群上的spark.txt文件找不到,首先我们得确保Hadoop集群namenode、datanode成活。进一步查看了Hadoop集群状况,发现datanode死了两个,导致数据无法读取到。于是重新将死掉的节点重新启动,再次执行spark计算,成功了!如下是执行成功的图片

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  spark