ubuntu16.04(64位)+Hadoop2.7.3伪分布式环境下部署Spark
2017-01-09 11:34
731 查看
由于Hadoop的伪分布式环境已经搭建好,下面就是部署Spark1.去官网下载Spark。 我是下载的最新版spark-2.1.0-bin-hadoop2.7.tgz。2.解压至安装路径。 我是安装在/usr/local/目录下,所以执行下面命令 。3.配置环境变量。
export SPARK_HOME=/usr/local/spark-2.1.0-bin-hadoop2.7 export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin 4.配置Spark环境变量添加如下代码:[/code][/code]cd $SPARK_HOME/conf[code] cp spark-env.sh.template spark-env.shvim spark-env.sh
export JAVA_HOME=/usr/java/latest export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SCALA_HOME=/usr/local/scala-2.12.1 export SPARK_HOME=/usr/local/spark-2.1.0-bin-hadoop2.7
export SPARK_MASTER_IP=127.0.0.1 export SPARK_MASTER_PORT=7077
export SPARK_MASTER_WEBUI_PORT=8099
export SPARK_WORKER_CORES=3 export SPARK_WORKER_INSTANCES=1 export SPARK_WORKER_MEMORY=10G export SPARK_WORKER_WEBUI_PORT=8081 export SPARK_EXECUTOR_CORES=1 export SPARK_EXECUTOR_MEMORY=1G 以上配置具体可以参考官网的说明,按照自己的需求配置,怕麻烦就配置前7行。 5.配置Slave[/code]cp slaves.template slaves[code]vim slaves里面添加slave的名字,一行一个,默认为localhost,因为我是伪分布式,所以就默认就好。6.启动Spark Masterstart-master.sh7.启动Spark Slavestart-slave.sh8.关闭master和slavestop-master.sh和stop-slave.sh小总结:安装过程中要注意权限,可以添加专门的用户和用户组来学习,如果怕麻烦,可以都以root的身份登录安装与使用,或是把
spark-2.1.0-bin-hadoop2.7目录的权限该为777,一般默认都是755,即执行命令sudo chmod -R 777 /usr/local/
spark-2.1.0-bin-hadoop2.7 在Hadoop的安装过程中,如果不注意权限的问题,也会遇到部署不成功的问题,也可以通过上面的方法来解决。 4000[/code]
相关文章推荐
- eclipse中tomcat容器启动工程timeout问题解决
- 信息熵(entropy)
- openstack系列阅读目录
- tomcat解压版配置
- 一个强大的linux命令——find之xargs
- JobScheduler使用中遇到的onStopJob没有回调的问题
- shell 中 &&和||的方法
- TNO:CI/CD与微服务架构
- opencv学习笔记(二十一) Sobel算子边缘检测
- Cassandra工具:cqlsh(the cql shell)
- CentOS7.2下安装pdf2htmlEX
- 玩转linux主机--centos设置宽带pppoe上网
- linux下socket编程
- 一个强大的linux命令——find之exec
- ubuntu 14.04 阿里云软件源
- Linux平台的SVN服务器的配置及搭建
- 用service启动nginx
- Linux(CentOS)安装JDK(.tar.gz)并配置
- Centos 6.4 安装elasticsearch+kibana
- 容器落地案例:TNO如何用容器搭建CI/CD与微服务架构