[置顶] hadoop无法正常关闭尝试处理方法
2016-07-08 22:36
281 查看
[原创地址](http://blog.csdn.net/luckystar92)
一、背景
1.因系统跑程序一直在存储数据,导致主节点本地存储空间空闲为零。hadoop平台出现异常,主节点ssh从节点出现要输入密码的情况:
2.且通过正常关闭方法无法关闭hadoop,会报以下错误:
[原创地址](http://blog.csdn.net/luckystar92)
二、解决方案
1、ssh node2
分别检测master连通其余从节点的无密码登录ssh有无问题,若有请按照博文里解决方案处理ssh问题解决链接
2、登录每一个从节点,通过输入jps查看从节点状态;若出现有datanode,则通过抓取hadoop进程,接着直接杀死进程,来结束从节点的hadoop。如下:
jps查看hadoop状态:抓取hadoop进程
杀死进程
三、结束语
[原创地址](http://blog.csdn.net/luckystar92)
此笔记谨供情况相似者参考!
相关文章推荐
- linux有趣的命令
- XMPP 学习笔记一 OpenFire与Spark安装
- Openlayers3学习(一)
- vmware xenon
- centos搭建rsync远程同步服务器
- cur常用命令的介绍l
- 禁止root远程登录
- 常用优质网站汇总
- win10 centos 7双系统引导
- linux分区工具parted使用
- Jenkins+SVN+Maven+Shell 实现项目一键发布
- 实现Nginx Upload 模块 功能上传文件。
- 每天一个linux命令(38)--lsof 之FD文件描述符
- docker 创建overlay网络实践
- 基于openVZ的CentOS6.X安装lamp环境
- Opencv2.4.12安装和VS2013+Opencv2.4.12开发环境配置
- OpenCV Transparent API
- OpGuard.hpp
- Programming udp sockets in C on Linux
- git bash for windows