高效搭建Spark全然分布式集群
2014-10-24 21:32
288 查看
写在前面一:
本文具体总结Spark分布式集群的安装步骤,帮助想要学习Spark的技术爱好者高速搭建Spark的学习研究环境。
写在前面二:
使用软件说明
约定,Spark相关软件存放文件夹:/usr/local/yujianxin/spark,
Hadoop相关软件存放文件夹: /home/yujianxin/hadoop。
Spark集群示意图
一、详细安装步骤
1、安装jdk
2、安装Hadoop集群,參考/article/1520657.html
3、安装 Scala
cd /usr/local/yujianxin/spark/
tar -zxvf scala-2.9.3.tgz
改动/etc/profile
4、安装Spark
4.1、改动/etc/profile
cd /usr/local/yujianxin/spark/
tar -zxvf spark-0.7.2-prebuilt-hadoop1.tgz
4.2、配置Spark
4.2.1、改动配置文件spark-env.sh
cd /usr/local/yujianxin/spark/spark-0.7.2/conf
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
4.2.2、改动配置文件slaves
至此,master节点上的Spark已配置完成。把master上Spark相关配置copy到slave1、slave2中,注意,三台机器spark所在文件夹必须一致,由于master会登陆到worker上运行命令,master觉得worker的spark路径与自己一样。
[b]二、安装測试
[/b]
2.1、通过命令行
cd $SPARK_HOME/bin
start-all.sh
2.2、通过浏览器
本文具体总结Spark分布式集群的安装步骤,帮助想要学习Spark的技术爱好者高速搭建Spark的学习研究环境。
写在前面二:
使用软件说明
约定,Spark相关软件存放文件夹:/usr/local/yujianxin/spark,
Hadoop相关软件存放文件夹: /home/yujianxin/hadoop。
Spark集群示意图
一、详细安装步骤
1、安装jdk
2、安装Hadoop集群,參考/article/1520657.html
3、安装 Scala
cd /usr/local/yujianxin/spark/
tar -zxvf scala-2.9.3.tgz
改动/etc/profile
4、安装Spark
4.1、改动/etc/profile
cd /usr/local/yujianxin/spark/
tar -zxvf spark-0.7.2-prebuilt-hadoop1.tgz
4.2、配置Spark
4.2.1、改动配置文件spark-env.sh
cd /usr/local/yujianxin/spark/spark-0.7.2/conf
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
4.2.2、改动配置文件slaves
至此,master节点上的Spark已配置完成。把master上Spark相关配置copy到slave1、slave2中,注意,三台机器spark所在文件夹必须一致,由于master会登陆到worker上运行命令,master觉得worker的spark路径与自己一样。
[b]二、安装測试
[/b]
2.1、通过命令行
cd $SPARK_HOME/bin
start-all.sh
2.2、通过浏览器
相关文章推荐
- 高效搭建Spark完全分布式集群
- 高效搭建Storm全然分布式集群
- 高效搭建Storm完全分布式集群
- 搭建分布式Hadoop2.6.0和Spark1.6.0集群
- Spark分布式集群的搭建和运行
- 在VM虚拟机上搭建Hadoop2.7.3+Spark2.1.0完全分布式集群
- CentOS6.5下spark分布式集群的搭建
- Spark 分布式集群环境搭建
- Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建
- Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程
- Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程
- Hadoop2.6.0 + Spark1.4.0 在Ubuntu14.10环境下的伪分布式集群的搭建(实践可用)
- Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建
- 浅谈对于RDD的认识 RDD(Resilient Distributed Datasets)弹性分布式数据集,是在集群应用中分享数据的一种高效,通用,容错的抽象,是Spark提供的最重要的抽象的概念
- spark分布式安装 spark集群搭建 hadoop集群搭建
- Hadoop2.2 + spark1.0 在ubuntu 上搭建分布式集群
- spark1.6.0+Hadoop2.6.0+Scala-2.11.7 搭建分布式集群
- Centos 7 搭建hadoop-2.6.0和spark1.6.0完全分布式集群教程 (最小化配置)
- hadoop2.7全然分布式集群搭建以及任务測试
- Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程