Spark primer 之wordcount 剖析(添加 spark按照单词出现次数排名)
2015-10-19 16:30
591 查看
package main.scala.com.spark.demo.com.com.spark.demo import org.apache.spark.{SparkContext, SparkConf} object NewWordCount { def main(args: Array[String]) { val conf = new SparkConf().setAppName("wordCount").setMaster("local") val sc = new SparkContext(conf) val rdd = sc.textFile("hdfs://master:9000/data01/words.txt")//your file address rdd.cache() rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).collect().foreach(println) //按照 单词出现次数排序 rdd.flatMap(_.split("")).map((_,1)).reduceByKey(_+_).map(e=(e._2,e._1)).sortByKey(false).collect } }
(1)rdd.flatMap(_.split(” “))的返回值:
words.txt的文件内容为:
在spark shell中输入 rdd.flatMap(_.split(” “)).collect 看回显
(2)rdd.flatMap(.split(” “)).map((,1))的返回值
我们发现已经将数组中每个元素转换成元组 (hello,1)…
(3)然后reduceBykey后 看结果
(4)按照单词出现次数排序,首先交换 元组顺序,即 (hello,1) 变为 (1,hello)
然后 使用sortByKey(false),指定false按照降序排序
代码为
相关文章推荐
- 第7周项目2 - 建立链队算法库
- (第四周项目6)循环双链表应用
- 负数把正数赶出队列
- 第七周项目3--负数把正数赶出队列
- js中操作cookie
- 430时钟
- Spark SQL Table Join(Python)
- 【用EXCEL VBA控制IE】 之写在前面
- shell常识总结
- 每天一个linux命令(22):find 命令的参数详解
- 微信订阅返回消息
- 第七周 建立连队算法库
- pdf转换成txt转换器的操作方法
- 第八周 项目2-建立链串的算法库
- ScrollView嵌套Listview,scrollview总是滚动到listview的位置
- Linux服务器管理常用命令整理
- MySql简单分页存储过程
- 从字符串中删除不需要的字符
- 每天一个linux命令(21):find命令之xargs
- 第七周项目1-建立顺序环形队列算法库