Maven安装编译Spark,搭建Spark独立集群模式(Hadoop架构之上)
2018-03-13 23:02
816 查看
首先,你的几台电脑都装好了Hadoop,如果要搭建Spark独立集群模式,则需要每台电脑都装上Spark。
点project,
点 Maven,
点Download,
2) Spark 压缩包地址:点击打开链接
hadoop@Master:~$ ssh -X Slave2
SPARK_HOME=/home/hadoop/software/spark-2.3.0
M2_HOME=/home/hadoop/software/apache-maven-3.5.2
在PATH后面添加 :/home/hadoop/software/spark-2.3.0/bin:/home/hadoop/software/apache-maven-3.5.2/bin
(注意每个·路径用冒号隔开)
电脑重启: hadoop@Slave2:sudo reboot六,设置 /home/hadoop/software/spark-2.3.0/conf/里的 slaves文件,这个文件是slaves.template的副本,修改文件名。
八, 启动spark集群
启动所有work的进程:
hadoop@Master:~/software/spark-2.3.0/sbin$ ./start-master.sh
hadoop@Master:~/software/spark-2.3.0/sbin$ ./start-slaves.sh查看spark的web信息: http://Master:8080
如果要启动单个节点,则:
./start-slave.sh spark://Slave1:7077
jps
./stop-slave.sh
一, 下载 Maven,Spark 压缩包
我是在主机Master下载了Maven,Spark 压缩包,1) Maven压缩包下载地址:点击打开链接
首先进入apache官网点project,
点 Maven,
点Download,
2) Spark 压缩包地址:点击打开链接
hadoop@Master:~$ ssh -X Slave2
二, 解压 Maven 和 Spark 压缩包
三, 设置环境变量
hadoop@Slave2:~$ cd /etc hadoop@Slave2:/etc$ sudo gedit environment
SPARK_HOME=/home/hadoop/software/spark-2.3.0
M2_HOME=/home/hadoop/software/apache-maven-3.5.2
在PATH后面添加 :/home/hadoop/software/spark-2.3.0/bin:/home/hadoop/software/apache-maven-3.5.2/bin
(注意每个·路径用冒号隔开)
电脑重启: hadoop@Slave2:sudo reboot
四, 设置Maven的虚拟机参数(以防止可能出现内存溢出)
export MAVEN_OPTS="-Xmx2g -XX:MaxPermSize=512M"
五, 用Maven安装编译Spark
mvn -Pyarn -Phadoop-2.6 -Dhadoop.version=2.7.3 -DskipTests clean package
六,设置 /home/hadoop/software/spark-2.3.0/conf/里的 slaves文件,这个文件是slaves.template的副本,修改文件名。
Slave0 Slave1 Slave2
七,同步slaves文件到各个节点
在/home/hadoop/software/spark-2.3.0/conf/目录下执行:
/usr/local/sbin/xcp.sh slaves ~/software/spark-2.3.0/conf/
八, 启动spark集群
启动所有work的进程:hadoop@Master:~/software/spark-2.3.0/sbin$ ./start-master.sh
hadoop@Master:~/software/spark-2.3.0/sbin$ ./start-slaves.sh查看spark的web信息: http://Master:8080
如果要启动单个节点,则:
./start-slave.sh spark://Slave1:7077
jps
./stop-slave.sh
相关文章推荐
- hadoop3种集群方式搭建---独立模式
- Spark新手入门——2.Hadoop集群(伪分布模式)安装
- spark分布式安装 spark集群搭建 hadoop集群搭建
- 联想ThinkPad S3-S440虚拟机安装,ubuntu安装,Hadoop(2.7.1)详解及WordCount运行,spark集群搭建
- Spark集群环境搭建+Maven、SBT编译部署+IDEA开发(二)
- 大数据Spark “蘑菇云”行动Hadoop实战速成之路第29课:Hadoop架构详解及Hadoop集群搭建、配置和测试实战
- Spark集群环境搭建+Maven、SBT编译部署+IDEA开发(一)
- Spark Tachyon编译部署(含单机和集群模式安装)
- spark环境搭建(独立集群模式)
- Spark2.0.1 on yarn with hue 集群搭建部署(五)hue安装支持hadoop
- centos7下安装编译并搭建hadoop2.6.0单节点伪分布式集群
- 安装Hadoop,Spark集群模式
- 安装Spark+hadoop,spark、hadoop分布式集群搭建...(亲自搭建过!!)
- 搭建Spark集群(独立模式)
- hadoop2.2.0安装spark1.1.0(maven编译)
- Hadoop-2.8.0集群搭建、hadoop源码编译和安装、host配置、ssh免密登录、hadoop配置文件中的参数配置参数总结、hadoop集群测试,安装过程中的常见错误
- centos7(vm)下spark-2.0.2-bin-hadoop2.7.tgz单机模式的安装验证(x86)
- Spark 集群搭建从零开始之2 Spark单机伪分布式安装与配置
- Centos 7.2 安装 Ambari 2.2.2 + HDP 2.4.2 搭建Hadoop集群
- Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建