您的位置:首页 > 其它

Spark1.0.1集群部署

2014-07-22 15:58 232 查看
参考http://blog.csdn.net/zhxue123/article/details/19199859
http://www.cnblogs.com/tec-vegetables/p/3780046.html
1. 前面都是在4台hadoop2.2集群,以及spark单机版下测试

2. 现在打算部署spark集群

3. 在有spark环境的那台机子执行如下命令,让其他集群也都含有scala,spark文件

scp -r $SCALA_HOME hadoop@ip:/home/hadoop/scala_path

scp -r $SPARK_HOME hadoop@ip:/home/hadoop/spark_path

并加入环境变量



4.修改conf/spark-env.sh 加入scala_home, HADOOP_CONF_DIR, SPARK_MASTER_IP

并修改 conf/slaves文件





5. start-all.sh,并调用jps查看状态,多了master, worker,worker,worker进程;启动成功









6.
./bin/run-example
SparkPi




7.运行如下命令



8 结果运行成功



9 查看http://resourcemanager:8088/cluster



点击进入



10 集群运行上篇文章自己sbt编写的SimpleApp







成功 我的 README.md 文件很简单

test

test

xia

在测试Java写的求pi



同样效果
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: