在Ubuntu14.04 64bit上搭建单机Spark环境,IDE为Intelli IDEA
2016-03-21 16:08
393 查看
在Ubuntu14.04 64bit上搭建单机Spark环境,IDE为Intelli IDEA
一. 环境
Ubuntu14.04 64位JDK 1.8.0_73
scala-2.10.4
spark 1.5.1 [此处注意Spark版本和Scala版本的兼容性问题]
IntelliJ IDEA 14.04
二. 安装JDK
1.从http://www.oracle.com/technetwork/java/javase/downloads页面下载JDK 1.8安装包,此处选择的是jdk-8u73-linux-x64.tar.gz2.解压到软件希望安装的目录下
3.修改环境变量: sudo gedit /etc/profile
export JAVA_HOME=/home/cherish/program/java/jdk1.8.0_73 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH
4.重新载入profile文件:
source /etc/profile
5.验证:
java, javac, java -version
三.安装scala
1.从http://www.scala-lang.org/download/2.10.4.html页面下载scala-2.10.4安装包2.解压到软件希望安装的目录下
3.修改环境变量: sudo gedit /etc/profile
export SCALA_HOME=/home/cherish/program/scala/scala-2.10.4 export PATH=${SCALA_HOME}/bin:$PATH
4.重新载入profile文件:
source /etc/profile
5.验证:
scala, scala -version
四. 安装spark
1.从http://www.scala-lang.org/download/2.11.7.html页面下载spark安装包,这里我选择的是1.5.1版本的Pre-build for Hadoop2.6 and later.2.解压到软件希望安装的目录下
3.修改环境变量: sudo gedit /etc/profile
export SPARK_HOME=/home/cherish/program/spark/spark-1.5.1-bin-hadoop2.6 export PATH=${SPARK_HOME}/bin:$PATH
4.重新载入profile文件:
source /etc/profile
五.安装IntelliJ IDEA
1.从http://www.jetbrains.com/idea/download/#section=linux页面下载IntelliJ IDEA安装包,此处选择的版本是14.042.解压到软件希望安装的目录下
3.下载插件
首先启动intelliJ IDEA:在命令行终端中,进入$IDEA_HOME/bin目录,输入sudo ./idea.sh进行启动,进入如下界面,然后选择右下角“plugins”
package graphTest import org.apache.spark.{SparkConf, SparkContext} /** * Created by root on 16-3-21. */ object myFirstScalaObject { def main(args: Array[String]) { val conf = new SparkConf() conf.setAppName("world") conf.setMaster("local") val sc = new SparkContext(conf) val lines = sc.textFile("/home/cherish/programData/test") //数据路径 val words = lines.flatMap{line => line.split(" ")} val pairs = words.map{ word => (word,1)} val wordCounts = pairs.reduceByKey(_+_) wordCounts.foreach(wordNumberPair => println(wordNumberPair._1 + ":" + wordNumberPair._2)) sc.stop() } }
View Code
然后点击Run即可运行了。
此处运行时如果出现如下的报错信息,则表明Spark版本和Scala版本不兼容,需要更改scala的版本。但是在本文介绍的scala-2.10.4版本与spark 1.5.1版本是兼容的。
Exception in thread "main" java.lang.NoSuchMethodError: scala.collection.immutable.HashSet$.empty()Lscala/collection/immutable/HashSet;
七. 感谢
Ubuntu spark 搭建_在Ubuntu14.04 64bit上搭建单机Spark环境linux 系统下IntelliJ IDEA的安装及使用
相关文章推荐
- js数组基础整理
- ARP协议
- 函数调用
- ndarray.any()--ValueError: 'axis' entry is out of bounds
- Spring的SimpleAliasRegistry类解析
- CGContextRef
- Activity和Service的生命周期(图)
- iOS 的GET和post请求
- 学习总结 二进制转换与应用
- 使用PowerShell登陆多台Windows,测试DCAgent方法
- 修改frame快捷方法,不必再繁琐的计算
- Studio如何导入JAR包 快传导入glideJAR包出问题
- [置顶] 【Python】python使用中踩过的坑
- 从京东大数据到京东大脑,AlphaGo的影响在持续发酵
- 正则表达式的JS验证
- URLno
- Spark 读取List中的数据引发的测试感想
- linux set ff命令
- iOS开发之iOS与js的交互
- LeetCode 147. Insertion Sort List