hdfs块丢失导致的异常问题排查解决
2016-05-27 17:37
435 查看
问题描述:由于不小心误删了hdfs的元数据目录,导致hdfs的块丢失;hdfs namenode自动进入 safe mode,hbase也一直报错找不到hbase.version文件,导致master挂掉;
1、首先退出hdfs namenode safe mode
hadoop dfsadmin -safemode leave
2、修复hdfs丢失的块
hadoop fsck /
hdfs fsck / -delete //此方式会将丢失的块全部删除
3、hbase修复
hbase hbck -fixVersionFile
4、如果hbase还有org.apache.hadoop.hbase.TableExistsException:
hbase:namespace 异常
解决方案:
1.切换到zookeeper的bin目录;
2.执行$sh zkCli.sh
3.输入 ls /
4.输入rmr /hbase
5.退出重启即可
1、首先退出hdfs namenode safe mode
hadoop dfsadmin -safemode leave
2、修复hdfs丢失的块
hadoop fsck /
hdfs fsck / -delete //此方式会将丢失的块全部删除
3、hbase修复
hbase hbck -fixVersionFile
4、如果hbase还有org.apache.hadoop.hbase.TableExistsException:
hbase:namespace 异常
解决方案:
1.切换到zookeeper的bin目录;
2.执行$sh zkCli.sh
3.输入 ls /
4.输入rmr /hbase
5.退出重启即可
相关文章推荐
- sparkStreming on HDFS
- hdfs 常用命令
- hadoop升级后,hive报错
- HDFS配置Kerberos认证
- HDFS的运行原理
- HDFS初探
- HDFS数据更新到hbase表
- Hadoop HA重做 Standby
- HDFS的API
- HDFS客户端的权限错误:Permission denied
- HDFS的概念
- HDFS中心缓存管理
- Spark优化:禁止应用程序将依赖的Jar包传到HDFS
- Spark兼容Hive入门解析
- flume学习(五):flume将log4j日志数据写入到hdfs
- HDFS的搭建
- HDFS文件系统操作命令
- HDFS数据的读写过程
- HDFS文件存储组织
- HDFS文件和HIVE表的一些操作