spark+hadoop集群搭建-虚拟机
2018-03-27 19:21
483 查看
spark+hadoop集群搭建-虚拟机
一、本次搭建环境说明VMware Fusion
master:ubuntu16.04 64位 ip:172.16.29.11
slave1:ubuntu16.04 64位 ip:172.16.29.12
slave1:ubuntu16.04 64位 ip:172.16.29.13
jdk9.0.4
hadoop2.8.1
spark2.3.0
二、jdk、hadoop安装部署
参见上篇博文: hadoop搭建全分布式集群-虚拟机
三、安装、配置spark
> wget http://mirrors.shu.edu.cn/apache/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz # 下载 > tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz # 解压 > mv spark-2.3.0-bin-hadoop2.7.tgz spark # 重命名 > mv ./spark/ /usr/local/ # 移动到/usr/local/目录下
配置环境变量,在/etc/profile文件尾部追加:
> vi /etc/profile
... #spark export SPARK_HOME=/usr/local/spark spark 路径 export SPARK_SCALA_VERSION=2.30 # spark 版本号
配置完成后,记得执行:
> source /etc/profile
进入/usr/local/spark/conf/,创建文件spark-env.sh:
export JAVA_HOME=/usr/local/jdk export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SPARK_MASTER_IP=hadoop11 export SPARK_WORKER_MEMORY=1g export SPARK_WORKER_CORES=1 export SPARK_WORKER_INSTANCES=1
变量说明
- JAVA_HOME:Java安装目录
- SCALA_HOME:Scala安装目录
- HADOOP_HOME:hadoop安装目录
- HADOOP_CONF_DIR:hadoop集群的配置文件的目录
- SPARK_MASTER_IP:spark集群的Master节点的ip地址
- SPARK_WORKER_MEMORY:每个worker节点能够最大分配给exectors的内存大小
- SPARK_WORKER_CORES:每个worker节点所占有的CPU核数目
- SPARK_WORKER_INSTANCES:每台机器上开启的worker节点的数目
进入/usr/local/spark/conf/,创建文件slaves:
hadoop12 # slave1机ip hadoop13 # slave2机ip
同步slave1、slave2的配置
> scp -r /usr/local/spark/ yourname@hadoop12:/usr/local/ > scp -r /usr/local/spark/ yourname@hadoop13:/usr/local/
权限设置:
> sudo chmod -R /usr/local/spark/ > sudo chown -R yourname:yourname /usr/local/spark
启动spark,进入/usr/local/spark/
> ./sbin/start-all.sh
jps查看进程启动情况
> jps # Master机 Master ...
> jps # Slave机 Slave ...
打开http://172.16.29.11:8080
启动shell,进入/usr/local/spark/
> ./bin/pyspark
打开http://172.16.29.11:4040
参考博文:
https://blog.csdn.net/weixin_36394852/article/details/76030317
相关文章推荐
- 用操作系统为centos 7的虚拟机搭建Hadoop2.7集群
- hadoop集群搭建--于虚拟机中
- 入门级Hadoop集群搭建详细教程(一):Linux虚拟机的创建
- hadoop集群搭建(虚拟机)
- Hadoop2.6集群环境虚拟机中搭建网络配置
- 虚拟机搭建hadoop的全分布式集群-in detail (2)
- 虚拟机下32位CentOs版本的linux下hadoop2.4.1集群搭建(3个节点版本)
- Hadoop实战(一) 在VMWare上搭建centos虚拟机集群
- hadoop搭建全分布式集群-虚拟机
- Hadoop0.20.2+hbase-0.92.1+zookeeper-3.3.5 虚拟机ubuntu完全集群搭建
- 虚拟机centos6.5 --hadoop2.6集群环境搭建
- vmware10上三台虚拟机的Hadoop2.5.1集群搭建
- 利用虚拟机搭建hadoop集群
- 虚拟机下ubuntu hadoop集群搭建
- ubuntu 虚拟机 完全分布式 hadoop集群搭建 hive搭建 ha搭建
- Hadoop集群搭建-虚拟机安装(转)(一)
- hadoop-1.1.0 rpm + centos 6.3 64虚拟机 + JDK7 搭建分布式集群
- 虚拟机搭建Hadoop集群(1) ---nat模式
- Hadoop学习(1):利用虚拟机搭建Hadoop集群环境
- Hadoop2.7.1 集群环境搭建(虚拟机)