Spark wordcount开发并提交到集群运行
2014-07-23 17:53
447 查看
使用的ide是eclipse
导出成jar包。
提交到集群运行脚本: WordCount.sh
执行WordCount.sh脚本
package com.luogankun.spark.base import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ /** * 统计字符出现次数 */ object WordCount { def main(args: Array[String]) { if (args.length < 1) { System.err.println("Usage: <file>") System.exit(1) } val conf = new SparkConf() val sc = new SparkContext(conf) val line = sc.textFile(args(0)) line.flatMap(_.split("\t")).map((_, 1)).reduceByKey(_+_).collect.foreach(println) sc.stop } }
导出成jar包。
提交到集群运行脚本: WordCount.sh
#!/bin/bash set -x cd $SPARK_HOME/bin spark-submit \ --name WordCount \ --class com.luogankun.spark.base.WordCount \ --master spark://hadoop000:7077 \ --executor-memory 1G \ --total-executor-cores 1 \ /home/spark/lib/spark.jar \ hdfs://hadoop000:8020/hello.txt
执行WordCount.sh脚本
相关文章推荐
- 将java开发的wordcount程序提交到spark集群上运行
- JDK8+Scala2.11+spark-2.0.0+Intellij2017.3.4开发wordcount程序并在集群中运行
- 将java开发的wordcount程序部署到spark集群上运行
- Spark wordcount开发并提交到单机(伪分布式)运行
- 将java开发的wordcount程序部署到spark集群上运行
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop单机模式并运行Wordcount(2)
- eclipse或idea中开发spark程序本地运行以及提交集群运行
- Spark上提交运行简单WordCount程序---Spark学习笔记(1)
- Spark教程-构建Spark集群-配置Hadoop单机模式并运行Wordcount(2)
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop伪分布模式并运行Wordcount示例(1)
- Idea创建maven工程 上传提交Spark运行 WordCount 配置依赖插件文件 全步骤
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop单机模式并运行Wordcount(1)
- spark集群搭建与集群上运行wordcount程序
- 在Windows下的Eclipse中如何将WordCount程序提交到集群运行
- spark wordcount 提交运行
- 联想ThinkPad S3-S440虚拟机安装,ubuntu安装,Hadoop(2.7.1)详解及WordCount运行,spark集群搭建
- Spark教程-构建Spark集群-配置Hadoop单机模式并运行Wordcount(1)
- idea构建spark开发环境,并本地运行wordcount
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop-伪分布模式并运行Wordcount(2)
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop伪分布模式并运行Wordcount示例(1)