Spark standlone安装与配置
2016-02-23 16:05
204 查看
spark的安装简单,去官网下载与集群hadoop版本相一致的文件即可。
解压后,主要需要修改spark-evn.sh文件。
以spark standlone为例,配置dn1,nn2为master,使用zookeeper的方式进行HA。
配置如下:
在dn1节点上,需要注意,把SPARK_MASTER_IP替换为dn1即可。否则在dn1上启动master会失败.
启动服务(dn1):
/app/spark151/sbin/start-all.sh
然后在nn2上启动:/app/spark151/sbin/start-master.sh
即可。
webui:默认的地址是:dn1:8080
提交任务:
解压后,主要需要修改spark-evn.sh文件。
以spark standlone为例,配置dn1,nn2为master,使用zookeeper的方式进行HA。
配置如下:
export JAVA_HOME=/app/jdk17079 export SCALA_HOME=/app/scala2105 export SPARK_MASTER_IP=nn2 export SPARK_WORKER_MEMORY=512m export HADOOP_CONF_DIR=/app/cdh23502/etc/hadoop/ export SPARK_WORKER_CORES=1 export SPARK_WORKER_INSTANCES=1 SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=nn1:2181,nn2:2181,dn1:2181 $SPARK_DAEMON_JAVA_OPTS"
在dn1节点上,需要注意,把SPARK_MASTER_IP替换为dn1即可。否则在dn1上启动master会失败.
启动服务(dn1):
/app/spark151/sbin/start-all.sh
然后在nn2上启动:/app/spark151/sbin/start-master.sh
即可。
webui:默认的地址是:dn1:8080
提交任务:
spark-submit --master spark://dn1:7077,nn2:7077 \ --executor-memory 256M \ --class org.apache.spark.examples.SparkPi \ /app/spark151/lib/spark-examples*.jar 10
相关文章推荐
- 关于分数是否可以使用PlayerPrefs存储的问题
- Unity3D调用自己封装的dll
- Linux访问Windows共享目录的方法——smbclient
- react props传值
- 韩顺平 javascript教学视频_学习笔记28_dom对象(document对象) 最重要的
- ReactJs组件的生命周期及其在浏览器中的工作原理
- android中自定义的dialog中的EditText无法弹出输入法解决方案
- Unity3D的GUI图片放大后会有”一条诡异的线“的解决办法
- Unity3D 加密AssetBundle包
- 关于Unity3D使用LitJson报错问题
- 腾讯云Linux系统怎么挂载磁盘?
- HTML DOM readyState 属性
- 解读Batch Normalization
- 学习的艺术——如何学好一门技术、语言
- python k-近邻算法
- 关于目前自己iOS项目使用的第三方开源库
- Android 百分比布局库(percent-support-lib) 解析与扩展
- 数据结构-2
- 解决下载Android Build-tools 19.1.0失败
- Unity3D代码的执行顺序