Ubuntu 16.04 安装Spark-2.3.0详细步骤
2018-03-19 17:59
573 查看
安装Spark的步骤跟安装Java和Scala的步骤差不多,比较简单,在这里简单表述一下安装流程。
1、下载Spark。
方法一:
这个简单,直接在官网上找到downloads选定红色框框中的版本号就可以了。
注意:package Type大家可以选择Pre-built for Apache Hadoop 2.7 and later,
也可以选择其他的。Spark的版本安装可以脱离Hadoop直接安装,
当然你有Hadoop的话,就按照Hadoop的版本来安装。
Spark下载链接:Download Apache Spark
方法二:
首先,本人采用的是清华源下载安装的,因为直接下载限速严重。
清华大学开源软件镜像站链接:清华大学开源软件镜像站
进去后找到Spark,选择你想要的版本号,点击下载就好了。
2、接下来解压压缩包。
解压命令:tar -zxvf spark-2.3.0-bin-hadoop2.7.gz
3、解压后,修改配置文件。
配置文件需要加入以下部分:export SPARK_HOME=/home/tianao/Spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/bin
4、保存文件后,要使环境变量生效:source /etc/profile
5、验证安装成功
1、下载Spark。
方法一:
这个简单,直接在官网上找到downloads选定红色框框中的版本号就可以了。
注意:package Type大家可以选择Pre-built for Apache Hadoop 2.7 and later,
也可以选择其他的。Spark的版本安装可以脱离Hadoop直接安装,
当然你有Hadoop的话,就按照Hadoop的版本来安装。
Spark下载链接:Download Apache Spark
方法二:
首先,本人采用的是清华源下载安装的,因为直接下载限速严重。
清华大学开源软件镜像站链接:清华大学开源软件镜像站
进去后找到Spark,选择你想要的版本号,点击下载就好了。
2、接下来解压压缩包。
解压命令:tar -zxvf spark-2.3.0-bin-hadoop2.7.gz
3、解压后,修改配置文件。
配置文件需要加入以下部分:export SPARK_HOME=/home/tianao/Spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/bin
4、保存文件后,要使环境变量生效:source /etc/profile
5、验证安装成功
相关文章推荐
- ubuntu16.04下安装mysql详细步骤
- Ubuntu16.04下安装python3.6详细步骤及anaconda安装
- Ubuntu16.04安装深度学习框架caffe详细步骤讲解
- Ubuntu 16.04 安装 JDK 及 Eclipse 详细步骤
- ubuntu 16.04下安装cuda 8.0.44详细步骤
- Ubuntu16.04上安装Java JDK1.8详细步骤
- Ubuntu16.04下安装python3.6详细步骤及anaconda安装详解
- Ubuntu16.04+CUDA8.0+cudnn5.1+TensorFlow-GPU详细安装步骤
- win7系统下 用U盘安装Ubuntu_16.04详细步骤说明
- ubuntu16.04下安装mysql详细步骤
- Ubuntu16.04安装CUDA9.1、cuDNN7详细教程
- ubuntu安装hadoop详细步骤
- 从零开始安装配置Hadoop 2.7.2+Spark 2.0.0到Ubuntu 16.04
- Fedora14安装Vmware Tools详细步骤 阐释(VMware版本为8.0,对比在ubuntu下安装vmware Tools的差异)
- Ubuntu安装JDK详细步骤
- CDH5.11 离线安装或者升级spark2.x详细步骤
- Ubuntu 10.10 安装谷歌PINYIN拼音输入法 详细步骤
- ubuntu-16.04 详细安装教程(图文)附下载地址
- Ubuntu16.04 Caffe 安装步骤记录(超详尽)