您的位置:首页 > 其它

Spark学习笔记(30)集群运行模式下的Spark Streaming调试

2017-09-01 00:32 447 查看
本期内容:
1. 集群模式下的Spark Streaming调试
2. 集群模式下的Spark Streaming难点解决案例分享

怎么找出前课想象的原因?
每个batch duration内的处理中,saveAsTextFiles只有一个job。reduceByKey的并行度改为8,shuffle时也确实有8个task。
虽然设置job并行度是1,但日志中显示每个batch duration内有3个job。

ForEachDStream的print会调用take,RDD.take操作导致了3个job的产生。take调用的runjob中的partitions的数量,具体看take中的算法。

需要注意的是,Spark Streaming中说的job是自己的定义,而take中涉及的job是core的定义。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐