CentOS7 基于Hadoop2.7 的Spark2.0集群搭建
2017-01-10 00:12
851 查看
目录(?)[+]
序言
上传文件到各服务器
安装配置Scala
安装配置Spark
配置集群
启动集群
测试Spark集群
本地下载 scala-2.11.8.tgz:
本地下载 spark-2.0.0-bin-hadoop2.7.tgz
2
3
1
2
3
2
1
2
解压文件夹
2
1
2
设置环境变量
2
1
2
1
解压文件并修改文件属性
2
3
4
1
2
3
4
设置环境变量
2
1
2
2
3
1
2
3
创建文件/home/hadoop/spark2.0/conf/Spark-env.sh
2
3
4
1
2
3
4
1
启动spark集群
1
验证集群状态
192.168.169.131:8080 #spark
192.168.169.131:50070 #hdfs
1
本文转自小杭嘟嘟嘟
序言
上传文件到各服务器
安装配置Scala
安装配置Spark
配置集群
启动集群
测试Spark集群
序言
Hadoop 2.7 集群已搭建完毕. 参考“CentOS7 从零开始搭建 Hadoop2.7集群‘’。(node 192.168.169.131, node1 192.168.169.133, node2 192.168.169.132, node3 192.168.169.134)本地下载 scala-2.11.8.tgz:
本地下载 spark-2.0.0-bin-hadoop2.7.tgz
上传文件到各服务器。
上传文件pscp.exe -pw 12345678 scala-2.11.8.tgz root@192.168.169.131:/usr/local pscp.exe -pw 12345678 spark-2.0.0-bin-hadoop2.7.tgz root@192.168.169.131:/usr/local1
2
3
1
2
3
安装配置Scala
设置临时变量scalaFolder='/usr/lib/scala-2.11.8'1
2
1
2
解压文件夹
tar -zxvf /usr/local/scala-2.11.8.tgz mv /usr/lib/scala-2.11.8 ${scalaFolder}1
2
1
2
设置环境变量
echo export SCALA_HOME=${scalaFolder} >> /etc/profile echo export 'PATH=$PATH:$SCALA_HOME/bin' >> /etc/profile1
2
1
2
安装配置Spark
设置临时变量sparkFolder='/home/hadoop/spark2.0'1
1
解压文件并修改文件属性
tar -zxvf /usr/local/spark-2.0.0-bin-hadoop2.7.tgz mv /usr/local/spark-2.0.0-bin-hadoop2.7 ${sparkFolder} chown -R hadoop:hadoop ${sparkFolder} chmod -R g=rwx ${sparkFolder}1
2
3
4
1
2
3
4
设置环境变量
echo export SPARK_HOME=${sparkFolder} >> /etc/profile source /etc/profile1
2
1
2
配置集群
创建文件 /home/Hadoop/spark2.0/conf/slavesnode1 node2 node31
2
3
1
2
3
创建文件/home/hadoop/spark2.0/conf/Spark-env.sh
#!/usr/bin/env bash export SCALA_HOME=/usr/lib/scala-2.11.8 export JAVA_HOME=/usr/local/jdk1.81
2
3
4
1
2
3
4
启动集群
启动hadoop 集群$HADOOP_HOME/sbin/start-all.sh1
1
启动spark集群
$SPARK_HOME/sbin/start-all.sh1
1
验证集群状态
192.168.169.131:8080 #spark
192.168.169.131:50070 #hdfs
测试Spark集群
运行测试例子MASTER=spark://node:7077 ./bin/run-example SparkPi1
1
本文转自小杭嘟嘟嘟
相关文章推荐
- [置顶] CentOS7 基于Hadoop2.7 的Spark2.0集群搭建
- CentOS7 基于Hadoop2.7 的Spark2.0集群搭建
- 基于hadoop2.7集群的Spark2.0,Sqoop1.4.6,Mahout0.12.2完全分布式安装
- spark学习1--centOS7.2下基于hadoop2.7.3的spark2.0集群环境搭建
- 基于hadoop2.7集群的Spark2.0,Sqoop1.4.6,Mahout0.12.2完全分布式安装
- 基于hadoop2.7集群的Spark2.0,Sqoop1.4.6,Mahout0.12.2完全分布式安装
- 基于Vmware Workstation上的hadoop集群搭建Spark集群
- 基于centos7搭建hadoop+zookeeper+hbase大数据集群
- Hadoop2.7与Spark1.6的集群搭建
- 基于docker的spark-hadoop分布式集群之一: 环境搭建
- CentOS7 从零开始搭建 Hadoop2.7集群
- Centos 7.2 Hadoop2.7+Spark2.1分布式集群搭建
- spark 1.5、hadoop 2.7 集群环境搭建
- spark2.0.2基于hadoop2.4搭建分布式集群
- spark 1.5、hadoop 2.7 集群环境搭建
- Spark集群基于Zookeeper的HA搭建部署
- Spark集群基于Zookeeper的HA搭建部署笔记
- Spark集群基于Zookeeper的HA搭建部署笔记
- Hadoop-2.6.0+Zookeeper-3.4.6+Spark-1.5.0+Hbase-1.1.2+Hive-1.2.0集群搭建
- 基于Hadoop2.5.0的集群搭建