spark集群1.6.2升级为2.0.2
2017-01-05 11:03
519 查看
参考文档
http://dblab.xmu.edu.cn/blog/1187-2/ Spark 2.0分布式集群环境搭建http://blog.csdn.net/andy572633/article/details/7211546 linux下杀死进程(kill)的N种方法
更改原有spark目录名
可提前stop-all将原有的spark改为spark1.6.2
sudo mv /usr/local/spark /usr/local/saprk1.6.2
Master安装spark2.0.2
下载安装包 spark-2.0.2-bin-without-hadoop.tgzsudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/ cd /usr/local sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark sudo chown -R hadoop ./spark
vim ~/.bashrc
在.bashrc添加如下配置:
export SPARK_HOME=/usr/local/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
Master spark配置
slaves
将 slaves.template 拷贝到 slavescd /usr/local/spark/ cp ./conf/slaves.template ./conf/slaves
添加slaves
spark-env.sh
将 spark-env.sh.template 拷贝到 spark-env.shcp ./conf/spark-env.sh.template ./conf/spark-env.sh
添加内容如下:
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SPARK_MASTER_IP=xxx (具体ip)
分发到slaves
将spark文件夹发送到各个node上:cd /usr/local/ tar -zcf ~/spark.master.tar.gz ./spark cd ~ scp ./spark.master.tar.gz n01:/home/hadoop scp ./spark.master.tar.gz n02:/home/hadoop scp ./spark.master.tar.gz n03:/home/hadoop scp ./spark.master.tar.gz n04:/home/hadoop scp ./spark.master.tar.gz n05:/home/hadoop scp ./spark.master.tar.gz n06:/home/hadoop scp ./spark.master.tar.gz n07:/home/hadoop scp ./spark.master.tar.gz n08:/home/hadoop scp ./spark.master.tar.gz n09:/home/hadoop scp ./spark.master.tar.gz n10:/home/hadoop
在n01…n10上执行:
sudo rm -rf /usr/local/spark/ sudo tar -zxf ~/spark.master.tar.gz -C /usr/local sudo chown -R hadoop /usr/local/spark
启动spark集群
cd /usr/local/spark/ sbin/start-master.sh
打开http://m01:8080,如下
左上角可看到已升级为spark2.0.2
可能出现的问题
如果jps出现多个Master进程(可通过web ui 8080 8081 等端口反馈)1.先停止当前spark-all
2.jps找到多余的Master PID
3.然后kill终结此Master进程
ps -ef | grep master kill -s 9 master_pid
其中-s 9 制定了传递给进程的信号是9,即强制、尽快终止进程。
世界清静.
相关文章推荐
- Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建
- CDH集群 Spark1.6 升级到 Spark2.2 全纪录
- 【Hadoop】Spark2.0.2在Hadoop2.7.3上的安装 二(集群安装)
- spark2.0.2基于hadoop2.4搭建分布式集群
- hadoop学习(四)--------升级为spark集群
- spark 1.6.0 升版升级到 spark 1.6.1 spark集群1台master 8台worker设备的详细升版解密
- Spark2.0.2集群部署
- 怎样升级spark集群到更新的版本?
- 【Hadoop】hadoop2.7.3-spark2.0.2集群部署总结
- Spark 升级(1.6.1 升级到2.0.2)幽灵分区
- Spark 1.6.2 + Hadoop 2.7.2 集群搭建
- Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建--5
- Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建--4
- Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建--3
- Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建--2
- Spark1.0.1集群部署
- Spark1.2集群环境搭建(Standalone+HA) 4G内存5个节点也是蛮拼的
- 安装Hadoop,Spark集群模式
- flume kafka sparkstreaming整合后集群报错org.apache.kafka.clients.consumer.KafkaConsumer.subscribe(Ljava/uti
- Spark集群模式概述