spark2.0下实现IPYTHON3.5开发,兼配置jupyter,notebook降低python开发难度
2016-11-11 21:12
411 查看
spark2.0下实现IPYTHON3.5开发,兼配置jupyter,notebook降低python开发难度
1、spark2.0安装就不说了,网上有很多,不会的话给我留言。2、我们在spark2.0下用python开发的话,不需要安装python了,直接安装anaconda就可以啦!
3、anaconda下载地址:https://www.continuum.io/downloads,这里提供3.5和2.7的,考虑到以后学习,我下载最新的3.5,界面如下:
4、通过scp将其拷贝到linux系统里面,我把它拷贝到了home目录下的Downloads下,大家可以根据自己喜好放置:界面如下:
5、输入安装命令安装命令,如下图所示:
6、回车,如下图所示:
7、输入yes,如下图所示:
8、输入回车,默认安装即可,当然也可以修改,这里默认安装,如下图所示:
9、这时候大家看到,anaconda已经还有python3.5了,所以不需要安装,如下图所示:
10、稍等一会,安装完成如下图所示:
11、anaconda默认的环境变量大家看到上一张图是在home目录下的./bashrc里面,我们vim 一下这个文件,发现环境变量已经配置完成,如下图所示:
12、这时候我们先运行一下pyspark,看下效果,我们发现是2.6.6,不是python3.5,但是还是可以启动的,如下图所示:
13、我们为了使用anaconda,所以这里在.bashrc文件里面配置一下,命令如下:
export PYSPARK_PYTHON=/root/anaconda3/bin
export IPYTHON=”1”
界面如下图所示:
14、这时候我们进入spark的bin目录执行./pyspark,看下界面,如下图所示:
15、我们发现报错了,IPYTHON和IPYTHON_OPTS已经在spark2.0+以上不使用了,所以我们删除IPYTHON=”1”,source一下.bashrc,重新reboot一下虚拟机,这个时候我们在执行./pyspark,界面如下图所示:
16、配置成功!
17、anaconda集成了IPYTHON为的是方便我们开发,大家还记得刚才报错的那个地方,新的版本已经把IPYTHON更名了,好那我们就把刚才报错提示要配置的那两个参数配置一下PYSPARK_DRIVER_PYTHON和PYSPARK_DRIVER_PYTHON_OPTS,命令如下:
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS=”notebook –NotebookApp.open_browser=False –NotebookApp.ip=’*’ –NotebookApp.port=8880”
界面如下:
这个时候在重新启动./pyspark,发现启动界面变了,如下图所示:
我们这时候可以在浏览器里面可以按红色框提示的信息输入,例如我输入:192.168.85.100:8880,界面如下图所示:
哇塞,一不小心我们把Jupyter配置好了,关于Jupyter的使用,大家可以上官网查阅,我这里就不解释了,这样基于python学习spark是不是方便一些了。
总结:spark2.0整合python开发主要是安装一下anaconda,然后配置一下PYSPARK_DRIVER_PYTHON和PYSPARK_DRIVER_PYTHON_OPTS参数,接下来我们就开始学习spark的开发吧。
相关文章推荐
- Jupyter与PySpark实现结合spark与python的notebook
- Spark之python版机器学习算法--ipython notebook配置及测试
- Windows7基于Python3.5安装Ipython notebook(现称jupyter)
- Eclipse配置Spark Python开发环境
- Eclipse配置PyDev插件来实现python开发环境
- centos7安装python3.5并配置pyqt开发环境
- Python,IPython,qtconsole,Notebook,Jupyter快速安装教程
- Linux-Fedora 25 Python 3.5开发环境配置Eclipse+Pydev
- spark2.x由浅入深深到底系列七之python开发spark环境配置
- JuPyter(IPython) Notebook中通过pip安装第三方Python Module
- Mac配置Python开发环境并实现简单的字符串和整数拼接
- Integrate Apache Spark with latest IPython Notebook (Jupyter 4.x)
- 使用PyCharm配置Spark的Python开发环境
- Mac配置Python开发环境并实现简单的字符串和整数拼接
- 大数据基础(八) Spark 2.0.0下IPython和Notebook的安装配置
- Jupyter配置Spark开发环境
- 在集群上的pyspark中配置ipython notebook,实现网页远程调用。
- jupyter notebook 配置 scala、spark、python等环境
- Spark中的python shell交互界面Ipython和jupyter notebook
- 完美配置Python3.5+Anaconda+PyQt5,实现UI和其他模块的结合