Datanode部分节点下线
2016-12-14 18:02
204 查看
最近需要将HDFS集群进行缩减,datanode由8台减到3台。google了一下,觉decommission方式最稳妥,于是使用该方法进行操作。
前提条件:
namenode的hdfs-site.xml 里有如下配置项
dfs.hosts是允许接入的机器列表,如果没有配置的话,则任何节点可以接入。dfs.hosts.exclude是打算下线的机器列表。
下线节点很简单。
首先在dfs.hosts.exclude的文件里填写想要下线的机器的IP/hostname,然后在namenode上运行
打开namode监控UI,就可以看到Decommissioning Nodes 的数量增加,同时Live Nodes页面里,想要下线的机器状态变成了 Decommission In Progress。
此时decommissioning的机器上的数据块会被copy到其它机器上。在监控首页面和Live Nodes页面下方都可以看到还有多少block待复制。
当这些数据块被copy完后,该机器就会变成Decommissioned的状态。接下来,就可以停掉该机器的datanode服务了。同时也需要删除dfs.hosts和dfs.hosts.exclude文件里的该机器地址, 并再次运行
前提条件:
namenode的hdfs-site.xml 里有如下配置项
<property> <name>dfs.hosts</name> <value>/data/hadoop/etc/hadoop/slaves</value> </property> <property> <name>dfs.hosts.exclude</name> <value>/data/hadoop/etc/hadoop/dfs_exclude</value> </property>
dfs.hosts是允许接入的机器列表,如果没有配置的话,则任何节点可以接入。dfs.hosts.exclude是打算下线的机器列表。
下线节点很简单。
首先在dfs.hosts.exclude的文件里填写想要下线的机器的IP/hostname,然后在namenode上运行
hadoop dfsadmin -refreshNodes
打开namode监控UI,就可以看到Decommissioning Nodes 的数量增加,同时Live Nodes页面里,想要下线的机器状态变成了 Decommission In Progress。
此时decommissioning的机器上的数据块会被copy到其它机器上。在监控首页面和Live Nodes页面下方都可以看到还有多少block待复制。
当这些数据块被copy完后,该机器就会变成Decommissioned的状态。接下来,就可以停掉该机器的datanode服务了。同时也需要删除dfs.hosts和dfs.hosts.exclude文件里的该机器地址, 并再次运行
hadoop dfsadmin -refreshNodes
相关文章推荐
- datanode节点下线/删除/退役 Decommission Datanode
- hadoop datanode节点硬盘故障下线及上线方法
- Hadoop 生产环境集群平滑下线节点(datanode/tasktracker or nodemanager)
- 动态上下线datanode节点及副本均衡机制
- CrateDB高可用测试 kill一个datanode节点
- Hadoop集群实施成功后,再次格式化名称节点,datanode如何加入集群
- hadoop中datanode节点不同的dfs.data.dir之间数据均衡问题
- HDFS的dataNode节点启动不起来
- HDFS集群的启动(2)——DataNode节点的注册
- Hadoop 添加删除数据节点(datanode)
- DataNode节点上数据块的完整性——DataBlockScanner
- Hadoop之——Hadoop 2.6.3动态增加/删除DataNode节点
- HDFS正常启动,DataNode节点个数为0的问题
- Hadoop动态加入/删除节点(datanode和tacktracker)
- Hadoop中正常启动了datanode但管理界面却却显示0个datanode节点或者只有本机的一个datanade,DFS Used显示0(100%)
- CCNode(成员ContentSize Camera Grid Child Par UserData Scheduler ActionManager ComponentContainer+颜色节点)
- Hadoop datanode正常启动,但是Live nodes中却突然缺少节点
- hadoop配置好之后启服务,jps能看到datanode进程,可是后台的datanode日志有如下错误,且50070端口上也是没有活的节点
- hadoop 动态添加节点datanode及tasktracker
- hadoop datanode节点超时时间设置