Spark on Yarn伪分布式集群搭建(Hadoop集成spark)
2020-07-15 05:44
316 查看
spark下载
http://spark.apache.org/downloads.html
所需环境
jdk1.8 及其以上版本
hadoop_2.6_cdh.2.4.5
hadoop安装教程: https://blog.csdn.net/weixin_44393345/article/details/106332781
解压文件
tar -zxvf spark-2.4.5-bin-hadoop2.6.tgz -C ../servers/
进入conf目录修改配置文件
复制原文件,修改后缀名
cp spark-env.sh.template spark-env.sh
修改文件,添加配置数据
vim spark-env.sh
#Hadoop 配置文件地址,根据自己配置位置 export HADOOP_CONF_DIR=/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop #主节点名称 export SPARK_MASTER_IP=node01 export JAVA_HOME=/export/servers/jdk1.8.0_141 export SCALA_HOME=/export/servers/scala-2.13.2
修改从节点
cp slaves.template slaves vim slaves
修改环境变量
vim /etc/profile
export SPARK_HOME=/export/servers/spark-2.4.5-bin-hadoop2.6 export PATH=:$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
刷新变量
source /etc/profile
节点文件下发
复制到从节点的当前路径下
scp -r /export/servers/spark-2.4.5-bin-hadoop2.6/ node02:$PWD scp -r /export/servers/spark-2.4.5-bin-hadoop2.6/ node03:$PWD
配置一键启动脚本
spart_start.sh
#! /bin/bash echo spark 集群正在启动 ssh node01 "/export/servers/spark-2.4.5-bin-hadoop2.6/sbin/start-all.sh start"
一键关闭
spart_stop.sh
#! /bin/bash echo spark 集群正在启动 ssh node01 "/export/servers/spark-2.4.5-bin-hadoop2.6/sbin/stop-all.sh start"
相关文章推荐
- hadoop spark环境搭建及idea scala maven集成开发spark任务
- Centos7+JDK1.8+Scala2.11+Hadoop2.8+Spark2.2+ZooKeeper3.4 集群搭建
- hive与hadoop、spark集成方案实践
- 大数据学习系列之六 ----- Hadoop+Spark环境搭建
- Hadoop+Spark+Zookeeper 集群搭建
- Spark大数据处理环境搭建之hadoop2.7.6
- Hadoop-2.6.0+Zookeeper-3.4.6+Spark-1.5.0+Hbase-1.1.2+Hive-1.2.0集群搭建
- spark2.0.2环境搭建(hadoop2.7.3)——启动关闭
- Hadoop2.2.0 HA高可用分布式集群搭建(hbase,hive,sqoop,spark)
- 大数据学习-Hadoop生态章---HDFS完全分布式(1.X版本)搭建及eclipse插件集成
- spark 1.5、hadoop 2.7 集群环境搭建
- Hadoop及Spark单机及分布式集群Ubuntu环境搭建(详细)
- Linux搭建Hive On Spark环境(spark-1.6.3-without-hive+hadoop2.8.0+hive2.1.1)
- Centos7 下 spark1.6.1_hadoop2.6 分布式集群环境搭建
- Hadoop2.8.2+Spark2.1.2 完全分布式环境 搭建全过程
- ganglia学习1之ganglia集群版搭建(支持hadoop和spark)
- 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解决方法
- 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解
- 搭建hadoop/spark集群环境
- spark1.3.0-hadoop2.4集群环境搭建(Standalone)