本地开发spark代码上传spark集群服务并运行
2017-07-19 00:00
218 查看
打包:右击、export、Java、jarFile
把TestSpark.jar包上传到spark集群服务器的spark_home下的myApp下:
提交spark任务:
cd/usr/local/spark/spark-2.1.1-bin-hadoop2.7
bin/spark-submit--class"ClusterWordCount"--masterlocal[4]myApp/TestSpark.jar
把TestSpark.jar包上传到spark集群服务器的spark_home下的myApp下:
提交spark任务:
cd/usr/local/spark/spark-2.1.1-bin-hadoop2.7
bin/spark-submit--class"ClusterWordCount"--masterlocal[4]myApp/TestSpark.jar
相关文章推荐
- 本地开发spark代码上传spark集群服务并运行
- 本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
- 本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
- 本地开发spark代码上传spark集群服务并运行(基于spark官网文档)
- 在IDEA中开发代码,并运行在Spark集群中的问题
- eclipse或idea中开发spark程序本地运行以及提交集群运行
- 3-2、Intellij IDEA开发、集群提交运行Spark代码
- spark学习7之IDEA下搭建Spark本地编译环境并上传到集群运行
- Scala-IDE Eclipse(Windows)中开发Spark应用程序,在Ubuntu Spark集群上运行
- [SDK2.2]Windows Azure Storage (16) 使用WCF服务,将本地图片上传至Azure Storage (上) 客户端代码
- Android studio使用git,及git上传本地代码到服务代码库,使用命名。
- 在spark开发环境中使用Standalone模式调试集群运行
- spark学习8之eclipse安装scala2.10和spark编译环境并上传到集群运行
- Eclipse提交代码到Spark集群上运行
- java写的spark程序的本地运行和集群运行
- 阿里云服务器配置php+apache+mysql+phpMyadmin开发环境并上传本地代码
- Local模式下开发第一个Spark程序并运行于集群环境
- 第95讲:使用Scala开发集群运行的Spark来实现在线热搜索词获取
- idea构建spark开发环境,并本地运行wordcount
- Spark wordcount开发并提交到集群运行