spark shell中编写WordCount程序
2017-05-15 22:48
441 查看
启动hdfs
略http://blog.csdn.net/zengmingen/article/details/53006541
启动spark
略安装:http://blog.csdn.net/zengmingen/article/details/72123717
spark-shell:http://blog.csdn.net/zengmingen/article/details/72162821
准备数据
vi wordcount.txthello zeng hello miao hello gen hello zeng hello wen hello biao zeng miao gen zeng wen biao lu ting ting zhang xiao zhu chang sheng xiang qi lai zhu ye su ai ni
上传到hdfs
hdfs dfs -put wordcount.txt /编写代码
用scala语言,在spark-shell命令窗下sc.textFile("hdfs://nbdo1:9000/wordcount.txt")
.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
.saveAsTextFile("hdfs://nbdo1:9000/out")
运行结果
补充:
将运行结果保存到一个文件。点击阅读扩展代码:
sc.textFile("hdfs://nbdo1:9000/wordcount.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
.coalesce(1,true).saveAsTextFile("hdfs://nbdo1:9000/out2")
运行结果
-------------
更多的Java,Android,大数据,J2EE,Python,数据库,Linux,Java架构师,教程,视频请访问:
http://www.cnblogs.com/zengmiaogen/p/7083694.html
相关文章推荐
- 启动Spark Shell,在Spark Shell中编写WordCount程序,在IDEA中编写WordCount的Maven程序,spark-submit使用spark的jar来做单词统计
- spark学习12(Wordcount程序之spark-shell)
- scala-eclipse 编写spark简单程序 WordCount
- 分别用Java、Scala、spark-shell开发wordcount程序及测试代码
- Spark中的wordcount以及TopK的程序编写
- 在IDEA中编写Spark的WordCount程序
- Hadoop 1.x 编写自己的WordCount程序
- 使用Pyspark编写wordcount程序
- 编写Akka程序实现WordCount功能
- 用SBT编译Spark的WordCount程序
- Spark on Yarn上实现WordCount程序
- Spark在Yarn上运行Wordcount程序
- 编写wordcount程序
- 将java开发的wordcount程序部署到spark集群上运行
- Linux下编写运行自己的WordCount程序
- spark on yarn 出现的问题【测试wordcount程序遇到的错误,ipc.client连接到yarn的端口失败】
- win7下安装hadoop 2.6.0 的eclipse插件并编写运行WordCount程序
- spark streaming 的wordcount程序,从hdfs上读取文件中的内容并计数