WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster uito ensure
2015-10-20 15:54
531 查看
当运行Spark程序,出现这样的问题
然后停下来,登录webUI看到的Status是Wait,分配的核是0,内存是参数 –executor-memory(或-Dspark.executor.memory)
这是因为当前的集群的可用资源不能满足应用程序所请求的资源。
这个首先检查一下spark-env.sh文件里面分给每个worker的executor的memory是多少。当app中上述的参数超过这个数值,那么app就不会找这个worker进行工作,而是去找满足数值的worker。
当然,一般来说每个节点的分配的都是一样,所以遇到这种情况基本是因为参数超过了分配给worker的executor的memory的数值。
到spark-env.sh文件修改executor(worker)的数值(当然前提是你有这么多内存)
问题就会得到解决。
WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster uito ensure that workers are registered and have sufficient memory
然后停下来,登录webUI看到的Status是Wait,分配的核是0,内存是参数 –executor-memory(或-Dspark.executor.memory)
这是因为当前的集群的可用资源不能满足应用程序所请求的资源。
这个首先检查一下spark-env.sh文件里面分给每个worker的executor的memory是多少。当app中上述的参数超过这个数值,那么app就不会找这个worker进行工作,而是去找满足数值的worker。
当然,一般来说每个节点的分配的都是一样,所以遇到这种情况基本是因为参数超过了分配给worker的executor的memory的数值。
到spark-env.sh文件修改executor(worker)的数值(当然前提是你有这么多内存)
问题就会得到解决。
相关文章推荐
- Spark RDD API详解(一) Map和Reduce
- 使用spark和spark mllib进行股票预测
- Spark随谈——开发指南(译)
- Spark,一种快速数据分析替代方案
- eclipse 开发 spark Streaming wordCount
- Spark初探
- Spark Streaming初探
- 搭建hadoop/spark集群环境
- 整合Kafka到Spark Streaming——代码示例和挑战
- Spark 性能相关参数配置详解-任务调度篇
- 基于spark1.3.1的spark-sql实战-01
- 基于spark1.3.1的spark-sql实战-02
- 在 Databricks 可获得 Spark 1.5 预览版
- spark standalone模式 zeppelin安装
- Apache Spark 1.5.0正式发布
- Tachyon 0.7.1伪分布式集群安装与测试
- spark取得lzo压缩文件报错 java.lang.ClassNotFoundException
- tachyon与hdfs,以及spark整合
- hive on spark 编译
- 使用openfire,spark,fastpath webchat搭建在线咨询服务详细图文解说