Spark on Yarn+Hbase环境搭建指南(三)Spark安装
2015-09-09 20:49
411 查看
一、Scala安装
Spark官方要求Scala版本为2.10.x, 从Spark1.4开始可能版本有所变更。步骤:(假设安装目录为/home/seraph/source/)
1) 解压
tar –zxvf scala-2.10.5.tgz2) 配置环境变量
在~/.bash_profile中加入:export SCALA_HOME=/home/seraph/source/scala-2.10.5
exportPATH=$PATH:$SCALA_HOME/bin
通过source指令执行此脚本
3) 验证
执行:$scala –version如果显示如下:
Scala code runner version 2.10.5 – Copyright2002-2013, LAMP/EPFL
则表示成功。
二、Spark安装
1)解压
$tar - -zxvf spark-1.3.1-bin-hadoop2.6.tgz2)配置
a) 进入conf目录,拷贝spark-env.sh.template并重命名为spark-env.sh添加如下内容(根据实际情况配置):
export SCALA_HOME=
export JAVA_HOME=
export HADOOP_HOME=
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
SPARK_MASTER_IP=master
SPARK_LOCAL_DIRS=/home/seraph/source/spark-1.3.1-bin-hadoop2.6
注:设置Worke进程的CPU个数和内存大小应注意机器的实际硬件条件,如果配置超过当前Worker节点的硬件条件,Worker进程会启动失败。
b) 复制slaves.template并重命名为slaves,加入slave主机名
Datanode1
Datanode2
c) 同步spark文件夹至从机
d) 启动Spark
./sbin/start-all.sh
3)验证
进入Spark的Web管理界面:http://master:80804)运行示例
a) 本地模式两线程运行:./bin/run-example SparkPi 10–master local[2]
b) Spark Standalone集群模式运行:
./bin/spark-submit\
--classorg.apache.spark.examples.SparkPi \
--masterorg.apache.spark.examples.SparkPi\
--master spark://master:7077\
lib/spark-examples-1.3.0-hadoop2.6.0.jar\
100
c) Spark on YARN集群上以yarn-cluster模式运行(运行结束后会提供一个审查URL,使用浏览器查看即可):
./bin/spark-submit\
--classorg.apache.spark.examples.SparkPi\
--master yarn-cluster\
lib/spark-examples*.jar\
10
注:欢迎转载,转载请注明出处
相关文章推荐
- 主项定理Master Method 计算时间复杂度
- Android开发:在onTouchEvent中处理任意时间的长按事件
- 02.Jquery Mobile介绍以及Jquery Mobile页面与对话框
- SGU103 The traffic lights 绞脑题
- java 环境变量设置 经典啊 很详细
- HDU - 1233 还是畅通工程(最小生成树模板题)
- 国科:做一家有梦想的芯片企业 五年后年收入100亿---C114
- java读取网页
- 数据库访问性能优化
- hibernate中one-to-one两种配置方式
- 快速排序
- C语言去掉字符串前后空格,中间多余空格
- centos7在VMware下配置网络连接
- bootstrap笔记第一天
- 算法导论——动态规划之最长公共子序列(LCS)和最长回文子序列(LPS)
- POJ - 1287 Networking(最小生成树模板题)
- 为什么解析 array_column不可用,
- 第一天:探索(2)
- Web前端——JQuery的进阶(测试使用 jQuery进行指定的操作)
- Codechef September Challenge 2015