spark master开发中org.apache.spark.serializer.JavaDeserializationStream错误解决
2015-10-14 10:55
531 查看
在spark开发过程中,一直想在程序中进行master的开发,如下代码:
val conf = new SparkConf().setMaster("spark://hostname:7077").setAppName("Spark Pi")
但是直接进行此项操作,老是碰到org.apache.spark.serializer.JavaDeserializationStream错误,找了很多资料,有各种各样的解决办法,看过代码后也尝试过用kryo来进行序列化,倒是没有报错,但就一直没有结果。因此肯定此项思路不通。
于是终于费劲地找到原因如下: 报错的意思应该是没有将jar包提交到spark的worker上面 导致运行的worker找不到被调用的类,才会报上述错误,因此设置个JAR,果然搞定。
val conf = new SparkConf().setMaster("spark://ubuntu-bigdata-5:7077").setAppName("Spark Pi")
.setJars(List("/home/ndscbigdata/simpleSparkApp.jar"))
通过此次调试,才明白后续调试可以先在local模式下进行解决,之后再生成JAR,采用编程模式运行。
更多交流学习:欢迎email: sparkexpert@sina.com
val conf = new SparkConf().setMaster("spark://hostname:7077").setAppName("Spark Pi")
但是直接进行此项操作,老是碰到org.apache.spark.serializer.JavaDeserializationStream错误,找了很多资料,有各种各样的解决办法,看过代码后也尝试过用kryo来进行序列化,倒是没有报错,但就一直没有结果。因此肯定此项思路不通。
于是终于费劲地找到原因如下: 报错的意思应该是没有将jar包提交到spark的worker上面 导致运行的worker找不到被调用的类,才会报上述错误,因此设置个JAR,果然搞定。
val conf = new SparkConf().setMaster("spark://ubuntu-bigdata-5:7077").setAppName("Spark Pi")
.setJars(List("/home/ndscbigdata/simpleSparkApp.jar"))
通过此次调试,才明白后续调试可以先在local模式下进行解决,之后再生成JAR,采用编程模式运行。
更多交流学习:欢迎email: sparkexpert@sina.com
相关文章推荐
- MoinMoin install in apache (win)
- 关于ubuntu 下安装的php和apache2 如何配置多虚拟主个机
- centos LAMP第一部分-环境搭建 Linux软件删除方式,mysql安装,apache,PHP,apache和php结合,phpinfo页面,ldd命令 第十九节课
- CentOS下编译安装Apache2(新)
- Apache Spark入门攻略
- 对apache-commons工具类的简单介绍
- 详解浏览器缓存机制与Apache设置缓存
- org.apache.jasper.JasperException: Expecting "jsp:param" standard action with "name" and "value" attributes
- Apache Ant运行时Unable to locate tools.jar解决方法
- apache virtualhost配置 apache配置多个网站
- Apache修改最大并发连接数
- Java-No.13 Apache Commons工具集整理
- MapReduce中碰到数据覆盖现象,org.apache.hadoop.io.Text.getBytes 问题
- apache重写字段详细说明
- comet4j集成项目报错JSON转换异常:html><head><title>Apache ....问题的解决
- Apache Benchmark安装、参数含义&使用总结、结果分析
- Linux:一台apache服务器上部署多个项目的apache配置
- 使用Apache Benchmark做压力测试遇上的5个常见问题
- windows下 简单配置PHP + apache +mysql
- Apache Commons Configuration使用入门