您的位置:首页 > 编程语言 > Java开发

spark入门wordcount详解(JAVA)

2017-03-02 09:59 656 查看
maven依赖:

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.6.0</version>
</dependency>

public class WordCount {
public static void main(String[] args) {
/**
* 创建spark配置对象SparkConf,设置spark运行时配置信息,
* 例如通过setMaster来设置程序要连接的集群的Master的URL,如果设置为local,
* spark为本地运行
*/
SparkConf conf = new SparkConf().setAppName("My first spark").setMaster("local");
/**
* 创建JavaSparkContext对象
* SparkContext是spark所有功能的唯一入口,
* SparkContext核心作用,初始化spark运行所
4000
需要的核心组件,同时还会负责spark程序在master的注册。
*
*/
JavaSparkContext sc = new JavaSparkContext(conf);
/**
* 根据数据来源,通过JavaSparkContext来创建RDD
*/
JavaRDD<String> lines = sc.textFile("E:/wordcount.txt");
/**
* 对初始化的JavaRDD进行Transformation级别的处理,例如map,filter等高级函数的编程,来记性具体的操作
* 1、按空格进行拆分,拆分为单词
*/
JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
public Iterable<String> call(String words) throws Exception {
return Arrays.asList(words.split(" "));
}
});
/**
* 对初始化的JavaRDD进行Transformation级别的处理,例如map,filter等高级函数的编程,来记性具体的操作
* 2、在单词拆分的基础上,对每个单词实例进行计数为1
*/
JavaPairRDD<String, Integer> pairs = words.mapToPair(new PairFunction<String, String, Integer>() {
public Tuple2<String, Integer> call(String s) throws Exception {
return new Tuple2<String, Integer>(s, 1);
}
});
/**
* 对初始化的JavaRDD进行Transformation级别的处理,例如map,filter等高级函数的编程,来记性具体的操作
* 3、计算每个单词在文中出现的总次数
*/
JavaPairRDD<String, Integer> pairRDD = pairs.reduceByKey(new Function2<Integer, Integer, Integer>() {
public Integer call(Integer integer, Integer integer2) throws Exception {
return integer + integer2;
}
});
/**
* 打印
*/
pairRDD.foreach(new VoidFunction<Tuple2<String, Integer>>() {
public void call(Tuple2<String, Integer> stringIntegerTuple2) throws Exception {
System.out.println(stringIntegerTuple2._1+"   "+stringIntegerTuple2._2);
}
});
/**
* 关闭JavaSparkContext
*/
sc.close();
}
}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: