Spark1.0.1集群部署
2014-07-22 15:58
232 查看
参考http://blog.csdn.net/zhxue123/article/details/19199859
http://www.cnblogs.com/tec-vegetables/p/3780046.html
1. 前面都是在4台hadoop2.2集群,以及spark单机版下测试
2. 现在打算部署spark集群
3. 在有spark环境的那台机子执行如下命令,让其他集群也都含有scala,spark文件
scp -r $SCALA_HOME hadoop@ip:/home/hadoop/scala_path
scp -r $SPARK_HOME hadoop@ip:/home/hadoop/spark_path
并加入环境变量
4.修改conf/spark-env.sh 加入scala_home, HADOOP_CONF_DIR, SPARK_MASTER_IP
并修改 conf/slaves文件
5. start-all.sh,并调用jps查看状态,多了master, worker,worker,worker进程;启动成功
6.
7.运行如下命令
8 结果运行成功
9 查看http://resourcemanager:8088/cluster
点击进入
10 集群运行上篇文章自己sbt编写的SimpleApp
成功 我的 README.md 文件很简单
test
test
xia
在测试Java写的求pi
同样效果
http://www.cnblogs.com/tec-vegetables/p/3780046.html
1. 前面都是在4台hadoop2.2集群,以及spark单机版下测试
2. 现在打算部署spark集群
3. 在有spark环境的那台机子执行如下命令,让其他集群也都含有scala,spark文件
scp -r $SCALA_HOME hadoop@ip:/home/hadoop/scala_path
scp -r $SPARK_HOME hadoop@ip:/home/hadoop/spark_path
并加入环境变量
4.修改conf/spark-env.sh 加入scala_home, HADOOP_CONF_DIR, SPARK_MASTER_IP
并修改 conf/slaves文件
5. start-all.sh,并调用jps查看状态,多了master, worker,worker,worker进程;启动成功
6.
./bin/run-example SparkPi
7.运行如下命令
8 结果运行成功
9 查看http://resourcemanager:8088/cluster
点击进入
10 集群运行上篇文章自己sbt编写的SimpleApp
成功 我的 README.md 文件很简单
test
test
xia
在测试Java写的求pi
同样效果
相关文章推荐
- 使用docker安装部署Spark集群来训练CNN(含Python实例)
- 大数据 IMF 传奇 spark -history在分布式 集群 的安装部署 及问题解决
- Spark Hadoop集群部署与Spark操作HDFS运行详解---Spark学习笔记10
- Spark2.0.1 on yarn with hue 集群搭建部署(二)spark on yarn搭建
- 第1讲Spark纯实战公益大讲坛:通过案例实战掌握高可用HA下的Spark集群部署
- 使用fabric解决百度BMR的spark集群各节点的部署问题
- spark集群部署模式概览
- Spark核心源码分析与开发实战(1)-----------SSH hadoop spark集群部署
- Spark2.0.1 on yarn with hue 集群安装部署(六)hue+hive+sparksql
- Spark2.1.0 + CarbonData1.0.0+hadoop2.7.2集群模式部署及使用入门
- ganglia的安装部署对spark集群监控
- Spark2.1.0集群部署
- spark 1.5.1 集群部署
- Spark集群三种部署模式的区别
- Spark集群基于Zookeeper的HA搭建部署
- Spark集群环境搭建+Maven、SBT编译部署+IDEA开发(二)
- Launching Applications with spark-submit【使用脚本提交作业到集群5种部署模式--】
- 使用Docker部署Spark集群
- Spark集群基于Zookeeper的HA搭建部署
- spark集群与spark HA高可用快速部署 spark研习第一季