您的位置:首页 > 其它

Spark-2.2.0安装和部署(分布式集群搭建,亲测可用)

2019-06-06 17:06 489 查看

转载好文章(安装spark集群的前提一定要安装scala):https://www.geek-share.com/detail/2711886984.html

注意:此命令只复制文件夹 目录下的内容,不直接将目录及内容复制到其他主机

[code]rsync -av /usr/scala-2.11.7/ SparkWorker2:/usr/scala-2.11.7/

scp命令是可以将目录及目录下的内容都复制过去的。

 

配合zookeeper的高可用spark分布式集群(亲测可用):

https://blog.csdn.net/nuc2015/article/details/81913293

Spark启动命令是和hadoop的启动命令一样:

[code]切到spark-2.2.0目录下:

sbin/start-all.sh

 

进入spark-shell命令:

Scala退出shell窗口:

命令:   

[code]:q

 

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: