hadoop入门系列之九--使用IDEA开发Spark Application及Local与打包测试讲解
2017-08-04 11:12
155 查看
1. 安装IDEA和scala
IDEA 可以去官网下载scala插件 https://plugins.jetbrains.com/plugin/1347-scala
要注意IDEA需要对应的jdk版本
2. 新建scala项目
3.配置项目结构和dependencies,要在libraries里加入spark
4. 运行hello workd测试项目是否可以
object HelloWorld3 { def main(args: Array[String]) { println("Hello World") } } 5. 新建sparkdemo,测试
//System.setProperty("HADOOP_USER_NAME", "hadoop01"); /*val logFile = "hdfs://10.10.0.141:9000/user/hadoop01/mapreduce/wordcount/input/wc.input" // Should be some file on your system val conf = new SparkConf().setAppName("Simple Application") val sc = new SparkContext(conf) val rdd=sc.textFile(logFile) val wordcount=rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_) wordcount.saveAsTextFile("hdfs://10.10.0.141:9000/user/hadoop01/mapreduce/wordcount/sparkoutput4"); sc.stop()
最后在hdfs里查看运行结果
bin/hdfs dfs -text /user/hadoop01/mapreduce/wordcount/sparkoutput3/part*
相关文章推荐
- 淘宝API开发系列---淘宝API的测试及使用
- 淘宝API开发系列---淘宝API的测试及使用
- iOS 开发 入门:使用Ad Hoc 进行用户测试
- Google C++测试框架系列入门篇:第一章 介绍:为什么使用GTest?
- iOS 开发 入门:使用Ad Hoc 进行用户测试
- 【软件测试自动化-QTP系列讲座 17】 == 揭开QTP的神秘面纱 (四)插件开发 == (入门篇)
- ios开发入门- xcode开发工具使用讲解
- 基于 Laravel 开发博客应用系列 —— 从测试开始(二):使用Gulp实现自动化测试
- Hadoop(MapReduce)入门 使用Eclipse开发
- Idea开发环境中搭建Maven并且使用Maven打包部署程序
- Idea开发环境中搭建Maven并且使用Maven打包部署程序
- BizTalk开发系列(三十七) 性能监视器在BizTalk性能测试中的使用
- 微信接口开发之高级篇系列【网页授权详细说明【提供测试账号使用】】
- Ubuntu 14.04 下使用IDEA开发Spark应用 入门
- maven系列学习之二:maven初体验-简单使用maven进行测试,编译、打包和运行
- hadoop 2.x之HDFS HA讲解之十一测试failover故障转移和隔离、使用sshfence隔离的配置ssh无密钥登陆
- iOS 开发 入门:使用Ad Hoc 进行用户测试
- 使用SteamVR Plugins插件为基础,来介绍Vive开发的入门,重点讲解设备的激活和控制接口
- 线程、消息-Android入门开发系列学习之 Handler使用-by小雨
- iOS 开发 入门:使用Ad Hoc 进行用户测试