您的位置:首页 > 其它

在Ubuntu 14.04 64bit上搭建单机本地节点Spark 1.3.0环境

2015-10-23 14:28 696 查看
1.准备工作:
(1)安装JVM

(2)安装Scala

(3)安装Python或者IPython

2.官网下载Spark最新版并解压
登陆官网
http://spark.apache.org/downloads.html

选择包类型为"Pre-built for Hadoop 2.4 and later"并下载对应的tarball文件spark-1.3.0-bin-hadoop2.4.tgz



解压下载的文件spark-1.3.0-bin-hadoop2.4.tgz 到指定目录

cp -f spark-1.3.0-bin-hadoop2.4.tgz  ~/program

复制代码

tar -xf spark-1.3.0-bin-hadoop2.4.tgz -C ~/program

复制代码

cd spark-1.3.0-bin-hadoop2.4

复制代码

ls

复制代码



由上易见, Spark版本是1.3.0, Hadoop版本是2.4

3.利用Spark自带的Python shell
使用PySpark shell, 在Spark解压的源码路径下,运行

bin/pyspark

在提示符下,依次输入下面的命令

>>> lines = sc.textFile("README.md")

>>> lines.count()

>>> lines.first()





按Ctrl-D退出shell环境

4.修改打印日志的级别
经过上面的运行,发现shell环境中打印的日志过多, 为此我需要调整以下日志的级别.为此,我在

conf目录下面新建一个文件log4j.properties,它是log4j.properties.template的副本,将其中

下面的行

log4j.rootCategory=INFO, console

改为

log4j.rootCategory=WARN, console



然后重新打开shell,发现调试信息少了很多

5.使用IPython或者IPython Notebook
在命令行, 我们可以使用下面的命令来开启IPython

IPYTHON=1 ./bin/pyspark



使用下面的命令来开启IPython Notebook

IPYTHON_OPTS="notebook" ./bin/pyspark



这会在默认浏览器中打开如下页面



点击上面的"New Notebook"打开一个新的页面标签, 在其中输入如下命令行,并按播放按钮来执行结果



按Ctrl-D退出shell环境

6.使用Scala shell测试line count小程序
打开Scala版本的shell,运行

bin/spark-shell

scala> val lines = sc.textFile("README.md")

scala> lines.cout()

scala> lines.first()



按Ctrl-D退出shell环境

7.测试Spark性能
进入到Spark的conf目录下面, 根据当前配置环境, 复制并修改spark_env.sh文件

cp -f spark-env.sh.template spark-env.sh

vim spark-env.sh

添加如下内容



export SCALA_HOME=/usr/local/spark/scala  (这个为scala的安装后的根目录 )

export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_79(jdk的根目录)

export SPARK_MASTER_IP=127.0.0.1

export SPARK_WORKER_MEMORY=1G

启动主服务器节点

sbin/start-master.sh

启动从服务器节点
sbin/start-slaves.sh spark://127.0.0.1:7077 

若启动过程中报错connect to host localhost port 22: Connection refused

造成这个错误的原因可能是ssh-server未安装或者未启动。ubuntu 11.10 默认安装openssh-client,但是木有安装server

运行 ps -e | grep ssh,查看是否有sshd进程

如果没有,说明server没启动,通过 /etc/init.d/ssh -start 启动server进程,如果提示ssh不存在 那么就是没安装server

通过 sudo apt-get install openssh-server命令安装即可

关闭分别使用

sbin/stop-master.sh

sbin/stop-slaves.sh



浏览master UI
http://127.0.0.1:8080/



http://127.0.0.1:8081/



运行样例

run-example org.apache.spark.examples.SparkPi local

run-example org.apache.spark.examples.SparkPi spark://127.0.0.1:7077

run-example org.apache.spark.examples.SparkLR spark://127.0.0.1:7077
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  spark ubuntu