linux的关于ssh 免密码登陆的问题
2016-06-26 21:24
471 查看
最近在搭建完全分布式的集群时候,在进行ssh的配置的时候遇到一些问题,下面总结一下
本文使用的环境是 centos6.5 64位机器
首先使用的是非root用户,假定是hadoop用户
首先使用的
ssh-keygen -t rsa
产生会在 /home/hadoop/.ssh 下产生两个密钥文件
将id_rsa.pub 即公钥文件的内容追加到 authorized_keys文件中
此时可以ssh localhost 是可以免密码登陆的
如果不行的话,建议将.ssh 的权限改成700
将authorized_keys 改成600
在远程传送到相邻的节点机
scp authorized_keys hadoop@192.168.1.128:/home/hadoop/.ssh/
注意被传的节点如果不能登陆的话,建议将 .ssh 文件夹的权限改成700
将authorized_keys的权限改成600的。
注意,就是将需要登录者的公钥传到被登录的机器上,将公钥追加进 authorized_:keys
备注在使用hadoop的用户时,会遇到sudo失效的问题
建议使用root用户将hadoop的sudo的权限开放
修改 /etc/sudoers文件
添加hadoop用户。
2.在使用scp的时候最好选用一个有权限的文件进行,否则会报无权限的问题。
我使用的是建立一个文件夹使用
chown hadoop:hadoop 文件夹
的方式建立一个文件夹使用。
这样很愚笨。。。
本文使用的环境是 centos6.5 64位机器
首先使用的是非root用户,假定是hadoop用户
首先使用的
ssh-keygen -t rsa
产生会在 /home/hadoop/.ssh 下产生两个密钥文件
将id_rsa.pub 即公钥文件的内容追加到 authorized_keys文件中
此时可以ssh localhost 是可以免密码登陆的
如果不行的话,建议将.ssh 的权限改成700
将authorized_keys 改成600
在远程传送到相邻的节点机
scp authorized_keys hadoop@192.168.1.128:/home/hadoop/.ssh/
注意被传的节点如果不能登陆的话,建议将 .ssh 文件夹的权限改成700
将authorized_keys的权限改成600的。
注意,就是将需要登录者的公钥传到被登录的机器上,将公钥追加进 authorized_:keys
备注在使用hadoop的用户时,会遇到sudo失效的问题
建议使用root用户将hadoop的sudo的权限开放
修改 /etc/sudoers文件
添加hadoop用户。
2.在使用scp的时候最好选用一个有权限的文件进行,否则会报无权限的问题。
我使用的是建立一个文件夹使用
chown hadoop:hadoop 文件夹
的方式建立一个文件夹使用。
这样很愚笨。。。
相关文章推荐
- 学习书签
- Linux下的高级拾色器—Pick
- 在CentOS7上配置Open vSwitch和VXLAN
- Openvswitch在CentOS 6.6下的安装
- Linux命令详解
- centos下安装mysql,使用rpm包的形式
- LINUX-AWK简明教程
- Linux学习之Debian(一):常用命令的安装-rz -sz
- openvswitch centos6.X 安装及使用
- linux中ldconfig的使用介绍
- linux内核内存管理(zone_dma zone_normal zone_highmem)
- 如何使用GCC编译器
- linux使用su切换用户提示 Authentication failure的解决方法
- Linux spi驱动 (三)
- Linux 磁盘分区 Fdisk
- 【51CTO学院三周年】Linux想说爱你很容易
- Linux 多线程调试(内存占用、死循环、CPU占用率高……)
- Android Linux指令集
- Linux下线程的挂起和恢复
- Linux中cp和scp命令的使用方法