您的位置:首页 > 其它

关于Spark下的第二种模式——standalone搭建

2017-02-07 11:13 162 查看
一:介绍

1.介绍standalone

  Standalone模式是Spark自身管理资源的一个模式,类似Yarn
  Yarn的结构:
    ResourceManager: 负责集群资源的管理
    NodeManager:负责当前机器的资源管理
    CPU&内存
  Spark的Standalone的结构:
    Master: 负责集群资源管理
    Worker: 负责当前机器的资源管理
    CPU&内存

二:搭建

1.在local得基础上搭建standalone

2.修改env.sh

  


3.修改slave

  


4.启动

  先启动HDFS

  在在spark根目录下,sbin/start-all.sh

  


  注意点:

  可以单独启动master与slaves。

  


5.网页效果(standalone的master网页)

  只要启动standalone模式,这个界面就是有效的。

  在applications的运行或者完成处没有任务,所以没有什么程序。

  


三:测试

1.测试

  启动spark-shell,并配置master地址。

  bin/spark-shell --master spark://linux-hadoop3.ibeifeng.com:7070

  


2.网页效果

  多出一个运行的applications。

  


3.使用程序检测

  然后输入wordcount的程序

  


4.shell中的结果

  


5.网页效果

  8080端口:

  


  单击这个application ID。

  


  单击Application Detail UI。

  将会进入4040端口。

  


  这时候可以继续单击Completed Jobs,可以看到job的DAG图。

  


  

  
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: