从零开始系列之spark与mongodb连接的安装记录_java方向(1)
2017-10-14 14:24
495 查看
本文不涉及hadoop
1、前置条件
64位操作系统:ubuntu16.04LTS
java: jdk 1.8.0_144 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
scala:2.12.1 下载地址:https://downloads.lightbend.com/scala/2.12.1/scala-2.12.1.tgz
spark:spark-2.1.0-bin-hadoop2.7 下载地址:https://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.7.tgz
mongodb:3.4.9 安装方式 http://blog.csdn.net/xsj_blog/article/details/71106133?locationNum=7&fps=1
2、步骤
首先安装mongodb,在执行“sudo apt-get update”命令时出错:
最后使用下面命令解决问题
然后将jdk、scala、spark解压到某个路径下,如“/home/xx/Downloads/”,使用命令
关闭spark命令
要想使spark mongodb connetor工作,还需要向spark中附加一个worker,命令如下
1、前置条件
64位操作系统:ubuntu16.04LTS
java: jdk 1.8.0_144 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
scala:2.12.1 下载地址:https://downloads.lightbend.com/scala/2.12.1/scala-2.12.1.tgz
spark:spark-2.1.0-bin-hadoop2.7 下载地址:https://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.7.tgz
mongodb:3.4.9 安装方式 http://blog.csdn.net/xsj_blog/article/details/71106133?locationNum=7&fps=1
2、步骤
首先安装mongodb,在执行“sudo apt-get update”命令时出错:
Error in `xxx': double free or corruption (fasttop)
*****/libappstream.so.3****
最后使用下面命令解决问题
sudo apt-get purge libappstream3
然后将jdk、scala、spark解压到某个路径下,如“/home/xx/Downloads/”,使用命令
vi /etc/profile //打开profile文件,并在文件末尾加上 export JAVA_HOME=/home/xx/Downloads/jdk1.8.0_144 export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH export SCALA_HOME=/home/xx/Downloads/scala-2.12.1 export PATH=${SCALA_HOME}/bin:$PATH export SPARK_HOME=/home/xx/Downloads/spark-2.1.0-bin-hadoop2.7 export PATH=${SPARK_HOME}/bin:$PATH //保存并退出,使用 source /etc/profile //命令使刚才的配置生效。依次输入 java -version scala -version //看看能否正确显示对应的版本号,输入 ${SPARK_HOME}/sbin/start-master.sh //启动spark master,查看日志或者在浏览器中输入 http://[spark服务器地址]:8080/ //看是否启动成功(日志路径:${SPARK_HOME}/logs/。我在这里遇到了日志不能写入的问题,解决方法是手工创建logs目录,并用chmod 777给该文件夹开通权限)。
关闭spark命令
${SPARK_HOME}/sbin/stop-all.sh
要想使spark mongodb connetor工作,还需要向spark中附加一个worker,命令如下
${SPARK_HOME}/bin/spark-class org.apache.spark.deploy.worker.Worker spark://[ip]:[port]例如:
${SPARK_HOME}/bin/spark-class org.apache.spark.deploy.worker.Worker spark://192.168.67.129:7077
相关文章推荐
- 从零开始系列之spark与mongodb连接的安装记录_java方向(2)
- mongodb在Windows安装配置及遇到的问题、java连接测试
- MySQL入门接触记录--从安装到Java通过JDBC连接MySQL数据库
- java及spark2.X连接mongodb3.X单机或集群的方法(带认证及不带认证)
- mongodb的安装(window)及java连接测试
- MongoDB 3.0 for java 学习记录(一、java连接MongoDB)
- Mongodb的安装以及Java连接Mongodb初探
- 环境安装系列记录——java+Eclipse+maven
- Java无法连接MongoDB问题
- 使用连接(JOIN)来代替子查询(Sub-Queries) mysql优化系列记录
- 燃烧的远征java(二)-开发环境:Eclipse插件系列——SQLExplorer插件的安装和使用
- JAVA自学系列教程:第二课,TOMCAT环境安装
- java即时通信解决方案openfire+spark完整安装指南
- 使用连接(JOIN)来代替子查询(Sub-Queries) mysql优化系列记录
- java Swing 程序连接SQLsever数据库方面的系列问题.
- JAVA/JSP学习系列之四(Orion App Server的安装)
- JAVA/JSP学习系列之三(Resin+Apache的安装)
- RedHat 上安装多个 mysql 实例并配置 django 连接的操作记录
- RedHat 上安装多个 mysql 实例并配置 django 连接的操作记录
- java即时通信解决方案openfire+spark完整安装指南