005-spark standalone模式安装
2015-09-01 20:12
239 查看
spark standalone模式不同于单节点本地模式,它有主从节点,分别为Master和worker
Spark standlone规划
Master节点: 192.168.2.20
Worker节点: 192.168.2.20,192.168.2.33
其中: 地址和域名的映射关系为
192.168.2.20 mycluster
192.168.2.33 cloud03
1、spark 下载
官方地址:http://spark.apache.org/downloads.html
2、spark安装
2.1 解压spark
[hadoop@mycluster ~]$ tar -zxvf spark-1.4.0-bin-hadoop2.6.tgz -C app/
2.2 设置主节点地址和J***A_HOME变量
vi spark-env.sh
SPARK_MASTER_IP=192.168.2.20
export J***A_HOME=/home/hadoop/app/jdk1.7.3
2.3 设置从节点地址
vi slaves
192.168.2.20
192.168.2.33
2.4 拷贝spark的目录到其他节点上
备注: 20节点和3节点需要建立ssh免登录。
3、spark standalone启动
在主节点上启动spark standlone模式,执行下面命令
cd $SPARK_HOME/sbin
./start-all.sh
3.1 8080查看master的工作状态 http://192.168.2.20:8080/
3.2 8081查看worker的工作状态
http://192.168.2.20:8081/
3.3 通过jps可以查看主从节点是否启动
[hadoop@mycluster sbin]$ jps
2822 Master
3452 Jps
3354 Worker
[hadoop@cloud03 spark-1.4.0-bin-hadoop2.6]$ jps
2306 Worker
2403 Jps
4、启动spark shell终端
启动成功后,通过4040端口查看job列表和状态,即http://192.168.2.20:4040
5、通过shell下达命令
在本地建立测试文件
[hadoop@mycluster ~]$ cat /home/hadoop/wc.txt
hello me
hello you
hello china
hello you
5.1加载数据文件,可以是本地路径,也是是HDFS路径或者其它
scala> var textFile = sc.textFile("/home/hadoop/wc.txt");
5.2 列出文件行数
scala> textFile.count();
5.3 列出首行内容
scala> textFile.first()
5.4 过滤
textFile.filter(line => line.contains("me"))
Spark standlone规划
Master节点: 192.168.2.20
Worker节点: 192.168.2.20,192.168.2.33
其中: 地址和域名的映射关系为
192.168.2.20 mycluster
192.168.2.33 cloud03
1、spark 下载
官方地址:http://spark.apache.org/downloads.html
2、spark安装
2.1 解压spark
[hadoop@mycluster ~]$ tar -zxvf spark-1.4.0-bin-hadoop2.6.tgz -C app/
2.2 设置主节点地址和J***A_HOME变量
vi spark-env.sh
SPARK_MASTER_IP=192.168.2.20
export J***A_HOME=/home/hadoop/app/jdk1.7.3
2.3 设置从节点地址
vi slaves
192.168.2.20
192.168.2.33
2.4 拷贝spark的目录到其他节点上
备注: 20节点和3节点需要建立ssh免登录。
3、spark standalone启动
在主节点上启动spark standlone模式,执行下面命令
cd $SPARK_HOME/sbin
./start-all.sh
3.1 8080查看master的工作状态 http://192.168.2.20:8080/
3.2 8081查看worker的工作状态
http://192.168.2.20:8081/
3.3 通过jps可以查看主从节点是否启动
[hadoop@mycluster sbin]$ jps
2822 Master
3452 Jps
3354 Worker
[hadoop@cloud03 spark-1.4.0-bin-hadoop2.6]$ jps
2306 Worker
2403 Jps
4、启动spark shell终端
启动成功后,通过4040端口查看job列表和状态,即http://192.168.2.20:4040
5、通过shell下达命令
在本地建立测试文件
[hadoop@mycluster ~]$ cat /home/hadoop/wc.txt
hello me
hello you
hello china
hello you
5.1加载数据文件,可以是本地路径,也是是HDFS路径或者其它
scala> var textFile = sc.textFile("/home/hadoop/wc.txt");
5.2 列出文件行数
scala> textFile.count();
5.3 列出首行内容
scala> textFile.first()
5.4 过滤
textFile.filter(line => line.contains("me"))
相关文章推荐
- hihocoder1224
- 【工业串口和网络软件通讯平台(SuperIO)教程】九.重写通讯接口函数,实现特殊通讯方式
- 人工智能学习梵高,毕加索风格,画出的世界名画是什么样子
- MyBatis——日志
- 外碎片与内碎片
- 页面之间传值方式的总结,五种方式,通知,block,代理,单例,NSUERDEFALUT,
- Android UI设计小知识——渐变色背景的制作
- 交换排序------冒泡排序(实现Java)
- Zookeeper Api(java)入门与应用
- Processing 教程(2) - 鼠标、键盘事件、条件选择、屏幕宽高
- 【工业串口和网络软件通讯平台(SuperIO)教程】九.重写通讯接口函数,实现特殊通讯方式
- 代码审查 之 Redmine 一键安装配置过程记录
- 004-spark local模式
- hihocoder1223
- 笔记-----------------------------A*寻路算法
- 中国的学术界到底有多腐败?
- [华为oj]iNOC产品部-杨辉三角的变形
- 老师让我写博客,听了半天我脑子记混了!!!!!!
- inflate
- Mac(10.10.4) 下安装idea+部署tomcat+maven