阿里云Spark安装教程_完全分布式_Spark-2.2.0_CentOS7.4
2018-01-19 11:30
591 查看
一、环境
本教程中使用两台阿里云服务器,其配置为单核CPU,2G内存,操作系统为CentOS7.4。默认已经安装了JDK1.8及Hadoop2.7.4。安装方法请查看阿里云安装hadoop教程_完全分布式_Hadoop2.7.4_Centos7.4。
使用scala-2.11.8及spark-2.2.0。主节点命名为master,从节点命名为node1。
二、安装scala
解压文件到指定目录
配置环境变量
使配置的环境变量生效
使用scala –version测试安装是否成功
三、安装Spark
解压文件到指定目录
配置环境变量
使配置的环境变量生效
使用pyspark测试安装是否成功,如果进入到shell中则安装成功
四、配置spark
切换目录
拷贝一份spark-env.sh.template并命名为spark-env.sh
编辑spark-env.sh
拷贝一份slaves.template并命名为slaves
编辑slaves
注:将上述的spark-env.sh及slaves文件拷贝一份到node1对应的目录下
五、启动进程
进入sbin目录并执行start-all.sh
使用jps查看结果,如果包含了Master进程和Worker进程,那么说明进程启动成功。
本教程中使用两台阿里云服务器,其配置为单核CPU,2G内存,操作系统为CentOS7.4。默认已经安装了JDK1.8及Hadoop2.7.4。安装方法请查看阿里云安装hadoop教程_完全分布式_Hadoop2.7.4_Centos7.4。
使用scala-2.11.8及spark-2.2.0。主节点命名为master,从节点命名为node1。
二、安装scala
解压文件到指定目录
配置环境变量
使配置的环境变量生效
使用scala –version测试安装是否成功
三、安装Spark
解压文件到指定目录
配置环境变量
使配置的环境变量生效
使用pyspark测试安装是否成功,如果进入到shell中则安装成功
四、配置spark
切换目录
拷贝一份spark-env.sh.template并命名为spark-env.sh
编辑spark-env.sh
拷贝一份slaves.template并命名为slaves
编辑slaves
注:将上述的spark-env.sh及slaves文件拷贝一份到node1对应的目录下
五、启动进程
进入sbin目录并执行start-all.sh
使用jps查看结果,如果包含了Master进程和Worker进程,那么说明进程启动成功。
相关文章推荐
- [置顶] 阿里云hadoop安装教程_完全分布式_Hadoop 2.7.4/CentOS 7.4
- Centos 7 搭建hadoop-2.6.0和spark1.6.0完全分布式集群教程 (最小化配置)
- 阿里云 CentOS7.4,静默安装Oracle11g2的教程
- 琐碎-hadoop2.2.0伪分布式和完全分布式安装(centos6.4)
- centos系统下完全分布式安装hadoop2.2.0
- hadoop2.2.0+hbase0.96.2完全分布式安装教程
- Hadoop安装教程_伪分布式配置_CentOS6.4/Hadoop2.6.0
- 在centos6.6上安装hadoop完全分布式集群并运行第一个程序
- Hbase-1.1.2完全分布式安装教程
- centos 6.6 hadoop 2.7.1 完全分布式安装部署
- Hadoop安装教程 单机和伪分布式 Centos6.8 Hadoop2.8.0
- hadoop学习(五)Hadoop2.2.0完全分布式安装详解(1)
- CentOS6 hadoop2.4完全分布式安装文档
- 阿里云 centOS7下安装MySQL教程
- CentOS安装教程与完全攻略
- centos6.5之Hadoop1.2.1完全分布式部署安装
- hadoop2.2.0+hive-0.10.0完全分布式安装方法
- Hadoop集群完全分布式搭建教程-CentOS
- Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程~(心血之作啊~~)
- 阿里云的CentOS环境中安装配置MySQL的教程