您的位置:首页 > 其它

孙其功陪你学之——基于IDEA使用Spark API开放Spark程序(3)

2015-01-16 14:05 369 查看
《Spark亚太研究院系列丛书——Spark实战高手之路 从零开始》本书通过Spark的shell测试Spark的工作;使用Spark的cache机制观察一下效率的提升构建Spark的IDE开发环境;通过Spark的IDE搭建Spark开发环境;测试Spark IDE开发环境等等。本节为大家介绍基于IDEA使用Spark
API开放Spark程序。

基于IDEA使用Spark API开放Spark程序(3)

把名称改为FirstSparkAppJar:





因为每台机器上都安装了Scala和Spark,所以可以把Scala和Spark相关的jar文件都删除掉:





接下来进行Build:





选择“Build Artifacts”:





第一次是选择Build,以后同一个工程要选择Rebuild,然后等待编译完成:





进入其编译后目录查看编译完成的文件:





接下来使用spark-submit运行该程序:









此时查看控制台:









最后运行完成任务:





我们到HDFS控制台查看运行结果:





进入SogouQResult文件夹:





查看执行结果:





这个内容和我们前面完全spark-shell的执行时一样的。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: