您的位置:首页 > 大数据

大数据平台搭建(3)搭建克隆分支,利用ssh使各分支相互连接

2018-03-28 15:26 197 查看
搭建克隆分支,并可以让他们相互连接 整个过程ssh操作

上一节已经说到了使用SSH Secure shell在Windows界面操作linux,这一篇继续在这个平台进行



首先需要将已经在虚拟机内安装的Master关机

=======================

鼠标在左侧的Master上,右键选择-管理-克隆-下一步-选择创建完整克隆-虚拟机名称改为Slave0,位置可以放在Master同一父目录下

相同操作再克隆一个命名为Slave1

完成后如下图



修改主机名

=====

由于Slave0和Slave1都是Master克隆来的主机名依然为Master

所以根据上一篇教程,修改主机名,分别修改为Slave0和Slave1

重启后生效

关闭防火墙

下面做的是对三台linux进行开机,关闭三台linux的防火墙,以及Windows的防火墙

此时可分别执行ifconfig,然后根据上一篇文章在SSH中连接并对linux进行操作如图



三台同时操作:

查看防火墙状态

firewall-cmd --state


关闭防火墙(临时的)

systemctl stop firewalld.service




成功!

下一步 利用

配置hosts

ifconfig


获得三台linux的ip 然后

分别在三台linux上

配置三台电脑hostsudo vi /etc/hosts

/*Master ip*/ Master
/*Slave0ip*/  Slave0
/*Slave1ip*/  Slave1


完成后 在三个linux终端分别执行

测试

ping slave0
ping slave1
ping master


ctrl+c 退出正在进行的进程。

无报错,则,配置成功!

无秘连接

到这里就可以进行下一步了,三台linux相互之间的无密连接

首先

务必确认都是在hadoop用户下执行,

如果不是执行:

su hadoop


配置无密码登录

Master slave0 slave1中分别执行

ssh-keygen


需要输入的地方:一路回车就可以了

接下来调整三个终端的用户

在Master终端中执行

首先确认是在hadoop用户下执行, su hadoop
cd ~/.ssh
ls
//远程传输文件到slave0电脑上
scp id_rsa.pub hadoop@slave0:~/.ssh/master.pub
//输入yes
//输入密码


如果出现报错cannot open directory ‘.’: Permission denied,之类的说明权限不够,需要在所有操作之前添加sudo 就可以啦!

在Slave0终端中执行:

cd ~/.ssh
ls
cat master.pub
//新建authorized_keys
touch authorized_keys
cat master.pub >> authorized_keys
cat authorized_keys
//修改权限
chmod 600 authorized_keys


此时就配置好了 master连接使用slave的功能

测试为在master终端中

ssh hadoop@slave0


登陆主机名由master变成slave0则成功

exit


退出

根据以上方法设置 master连接slave1,slave0与slave1的相互连接

请注意,每个主机 ~/.ssh 目录下的authorized_keys 文件存放的都是所有需要无秘连接的秘钥,如下图



每个主机都有包含所有主机的秘钥文件authorized_keys

且在 ~/.ssh 下执行

chmod 600 ~/.ssh/authorized_keys


即权限设置,这样就可以使每台机器相互连接了

如果还是不懂具体可参考

https://blog.csdn.net/hrn1216/article/details/51568830
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: