hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(1)安装jdk
2017-04-25 19:25
666 查看
一、文件准备
下载jdk-8u131-linux-x64.tar.gz
二、工具准备
2.1 Xshell
2.2 Xftp
三、操作步骤
3.1 解压文件:
$ tar zxvf jdk-8u131-linux-x64.tar.gz
解压后文件目录移动到/opt/modules/下
建立连接jdk1.8到该目录
3.3 使用Vi编辑器,设置环境变量
$ sudo vi /etc/profile
在文件最后,添加如下内容:
3.4 退出vi编辑器,使环境变量设置立即生效
$ source /etc/profile
3.5 查看JDK版本
下载jdk-8u131-linux-x64.tar.gz
二、工具准备
2.1 Xshell
2.2 Xftp
三、操作步骤
3.1 解压文件:
$ tar zxvf jdk-8u131-linux-x64.tar.gz
解压后文件目录移动到/opt/modules/下
建立连接jdk1.8到该目录
3.3 使用Vi编辑器,设置环境变量
$ sudo vi /etc/profile
在文件最后,添加如下内容:
#Java Env export JAVA_HOME=/opt/modules/jdk1.8 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin
3.4 退出vi编辑器,使环境变量设置立即生效
$ source /etc/profile
3.5 查看JDK版本
$ java -version java version "1.8.0_121" Java(TM) SE Runtime Environment (build 1.8.0_121-b13) Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)
相关文章推荐
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(1)安装jdk
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(2)安装hadoop
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(4)SPARK 安装
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(2)安装hadoop
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(3)http://www.cnblogs.com/liugh/p/6624491.html
- hadoop2.7.3+spark2.1.0+scala2.12.1环境搭建(3)
- windows搭建spark运行环境(windows scala,hadoop,spark安装,idea使用配置等)
- CentOS7下 Hadoop2.7.3+Spark2.1.0 集群环境搭建(1NN+2DN)
- Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程
- Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程
- Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程
- Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程
- Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程
- linux下搭建hadoop和spark环境之安装jdk
- Hadoop2.7.3+Spark2.1.0 完全分布式环境 搭建全过程
- CentOS7下 Hadoop2.7.3+Spark2.1.0 集群环境搭建(1NN+2DN)
- 开始hadoop前的准备:ubuntu学习笔记-基本环境的搭建(ssh的安装,SecureCRT连接,vim的安装及使用、jdk的安装)
- Hadoop+Spark+Scala+R+PostgreSQL+Zeppelin 安装过程-环境准备
- Ubuntu16.04 下 Spark2.0.2+Hadoop2.7.3+Zookeeper3.4.9+HBase1.1.7集群环境搭建--3
- hadoop环境搭建之安装JDK