您的位置:首页 > 其它

集群上的用户权限管理及无密码登陆配置

2015-03-28 21:52 393 查看
在实验用的集群上,通常安装多种实验平台。我们需要管理集群,同时需要对适合的人分配适合的权限,以免对其他人造成干扰。因此本博将细致介绍一下权限分配管理。

权限管理思路,对普通用户不授予管理员权限,将用户归到组,给组授权,从而达成用户权限的限制。

首先我们来创建普通用户,我们默认您已经将root权限配置了无密钥互访(如果没有只需要按下边配置普通用户的方法配置root用户就可,psshhuo)。并已经安装了pssh工具(参见本博pssh配置)。

root权限:

1、首先编辑集群地址文件ips:



如果你没有更改host文件,那么node01为你的节点的ip地址

2、执行命令

pssh -h ips groupadd spark

添加用户组spark



3、执行命令创建用户test(此处没有为用户创建密码,如果需要密码,请参见此博客),

pssh -h ips useradd test

4、执行命令将test用户添加到用户组spark

pssh -h ips usermod -g spark test

5、配置test的无密钥互访:

(1)如下图所示,切换到test用户,输入ssh-keygen -t rsa 回车,并一路回车下去



(2)ls /home/test/.ssh我们可以看到下面几个文件



(3)cat /home/test/.ssh/id_rsa.pub >> /home/test/.ssh/authorized_keys ,构造授权密钥, 并给密钥授权

chmod 600 /home/test/.ssh/authorized_keys

(4)将.ssh 文件分发到其他节点,并更改文件所有者及权限,具体操作如下:

注意:先用exit 切换到root用户,

pscp -r -h ips /home/test/.ssh /home/test/

pssh -h ips chown -R test /home/test/.ssh

pssh -h ips chmod 600 /home/test/.ssh/authorized_keys

这样无密钥互访就做完了。

6 、将spark文件、hadoop文件及存储文件授权给用户组spark,其他平台相同道理

pssh -h ips chgrp -R spark /usr/lib/spark-2.3.0/

pssh -h ips chgrp -R spark /usr/lib/hadoop-1.1.0-spark-2.3.0/

pssh -h ips chmod -R 770 /usr/lib/spark-2.3.0/

pssh -h ips chmod -R 770 /usr/lib/hadoop-1.1.0-spark-2.3.0/

pssh -h ips chmod -R 777 /data (此处为保存数据的文件夹

至此就全部搞完了,试一下你的可以用了吗
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐