云计算实践:基于Ubuntu的Spark、Hadoop、MongoDB的单机环境配置和开关方法
2017-12-01 10:55
513 查看
Ubuntu版本:16.04
安装JDK(Oracle网站下载,改环境变量)
安装scala(推荐用IDE,eg.IDEA,在主页选择plugin进去下载scala就可以)
安装Spark(从spark下载,解压,然后配环境变量)
配置环境变量,编辑/etc/profile
JDK环境变量
Scala环境变量
Spark环境变量
在bin目录打开spark-shell测试
输入
http://whatbeg.com/2016/08/31/hadoop-install.html
http://www.voidcn.com/article/p-zqxfqhzr-bpq.html
Point: 我比较懒,把所有有关的bin路径都放在一个文档里面,直接在终端复制粘贴就可以,如果对安全性要求不高可以把密码也放在里面
在mongo里输入 use admin
在mongo里输入 db.shutdownServer()
——————————————————————
NameNode为http://localhost:50070/
JobTracker为http://localhost:50030/
密码:[b]***********[/b]
yarn的web端口:8088
spark集群的web端口:8080
spark-job监控端口:4040
安装
Spark
Reference:
http://www.linuxdiyf.com/linux/30606.html安装JDK(Oracle网站下载,改环境变量)
安装scala(推荐用IDE,eg.IDEA,在主页选择plugin进去下载scala就可以)
安装Spark(从spark下载,解压,然后配环境变量)
配置环境变量,编辑/etc/profile
JDK环境变量
export JAVA_HOME=/opt/jdk1.8.0_45 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH
Scala环境变量
export SCALA_HOME=/opt/scala-2.11.6 export PATH=${SCALA_HOME}/bin:$PATH
Spark环境变量
export SPARK_HOME=/opt/spark-hadoop/
在bin目录打开spark-shell测试
MongoDB
执行apt-get install mongodb
输入
mongo测试即可
Hadoop
这个比较复杂,需要配的文件很多,po几个教程http://whatbeg.com/2016/08/31/hadoop-install.html
http://www.voidcn.com/article/p-zqxfqhzr-bpq.html
开启和关闭
做作业的时候这三个需要同时开启,所以当重启电脑的时候就很崩溃,所以总结了开启关闭方法如下:Point: 我比较懒,把所有有关的bin路径都放在一个文档里面,直接在终端复制粘贴就可以,如果对安全性要求不高可以把密码也放在里面
mongodb开启与关闭
mongodb bin文件目录:/usr/local/Cellar/mongodb/3.4.9/bin
开启:默认启动: $ ./mongodb - 默认数据保存路径:/data/db/ - 默认端口:27017
/usr/local/Cellar/mongodb/3.4.9/bin/mongo
关闭:
进入mongodb在mongo里输入 use admin
在mongo里输入 db.shutdownServer()
——————————————————————
hadoop开启与关闭
Hadoop bin目录:/Users/lixuefei/hadoop-2.8.1/sbin
开启:hadoop namenode -format 然后就可以启动Hadoop,进入Hadoop的bin目录,操作命令: start-all.sh
运行之后,执行jps命令可以看到Hadoop的所有守护进程, 还可以通过Hadoop NameNode和JobTracker的Web接口来查看集群是否启动成功,其访问地址如下:NameNode为http://localhost:50070/
JobTracker为http://localhost:50030/
密码:[b]***********[/b]
关闭: stop-all.sh
——————————————————————spark开启与关闭
开启:/Users/lixuefei/spark-2.2.0-bin-hadoop2.7/sbin/start-all.sh
关闭:/Users/lixuefei/spark-2.2.0-bin-hadoop2.7/sbin/stop-all.sh
端口
namenode的webUI端口:50070yarn的web端口:8088
spark集群的web端口:8080
spark-job监控端口:4040
相关文章推荐
- Hadoop on Ubuntu 实践一:单机配置
- Hadoop2.6.0 + Spark1.4.0 在Ubuntu14.10环境下的伪分布式集群的搭建(实践可用)
- Hadoop单机环境安装配置(Ubuntu 12.04)
- Ubuntu14.04全分布式安装hadoop2.7.2(三)jdk环境配置+hadoop单机
- 单机搭建基于Hadoop的Spark环境
- 使用Cygwin模拟Linux环境安装配置运行基于单机的Hadoop
- 单机搭建基于Hadoop的Spark环境
- HBase环境搭建(一)Ubuntu下基于Hadoop文件系统的单机模式
- 解决Linux(Ubuntu)环境变量配置无效的问题:JDK,Hadoop,Spark,Scala等
- 基于Eclipse的Hadoop开发环境配置方法
- spark学习1——配置hadoop 单机模式并运行WordCount实例(ubuntu14.04 & hadoop 2.6.0)
- 使用Cygwin模拟Linux环境安装配置运行基于单机的Hadoop
- Ubuntu上搭建hadoop 2.2.0环境,配置yarn(单机)
- Ubuntu配置hadoop单机+伪分布式环境+eclipse--安装hadoop(一)
- 单机伪分布下的hadoop+spark 环境配置
- Ubuntu配置hadoop单机+伪分布式环境+eclipse-- 配置hadoop单机环境(二)
- 基于Eclipse的Hadoop开发环境配置方法
- 在ubuntu下搭建hadoop环境(单机配置)
- Ubuntu配置hadoop单机+伪分布式环境+eclipse--配置hadoop伪分布式环境(三)
- spark学习1——配置hadoop 单机模式并运行WordCount实例(ubuntu14.04 & hadoop 2.6.0)