Spark集群工作异常,无法读取Hadoop集群文件处理办法
2017-08-10 23:26
239 查看
在spark集群上,进行spark计算,连续执行两次都出现如下问题,问题原因是spark找不到Hadoop集群上的spark.txt文件,问题展现如下:
7/08/11 07:04:11 WARN hdfs.DFSClient: DFS Read
org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-1997779725-192.168.0.117-1502149524018:blk_1073741825_1001 file=/spark.txt
解决思路,是由于Hadoop集群上的spark.txt文件找不到,首先我们得确保Hadoop集群namenode、datanode成活。进一步查看了Hadoop集群状况,发现datanode死了两个,导致数据无法读取到。于是重新将死掉的节点重新启动,再次执行spark计算,成功了!如下是执行成功的图片
7/08/11 07:04:11 WARN hdfs.DFSClient: DFS Read
org.apache.hadoop.hdfs.BlockMissingException: Could not obtain block: BP-1997779725-192.168.0.117-1502149524018:blk_1073741825_1001 file=/spark.txt
解决思路,是由于Hadoop集群上的spark.txt文件找不到,首先我们得确保Hadoop集群namenode、datanode成活。进一步查看了Hadoop集群状况,发现datanode死了两个,导致数据无法读取到。于是重新将死掉的节点重新启动,再次执行spark计算,成功了!如下是执行成功的图片
相关文章推荐
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- Spark集群工作异常,无法读取Hadoop集群文件处理办法
- 在Hadoop集群实施成功后再次格式化名称节点,datanode无法加入集群的处理办法
- 自定义配置文件读取产生的“无法添加已属于该配置的 ConfigurationSection”异常解决办法
- 关于在Spark集群中读取本地文件抛出找不到文件异常的问题