hadoop源码研读之路(八)----DataNode本地数据块管理
2012-09-23 15:12
330 查看
刚接触Hadoop的时候,老师问我咱们上传的数据存放到那里了,我说我不知道,当时很囧。呵呵。
在hdfs-site.xml中
<porperty>
<name>dfs.data.dir</name>
<value>/home/hadoop/data</value>
</porperty>
这行数据就代表了数据块存放地址,现在才明白过来。
在Linux上有四个目录
1.current存放的是当前有效的数据块,
2.detach存的是快照
3.tmp保存的hi一些操作需要的临时数据块
4.storage存的是一些出错信息,版本不对..(二进制文件)
进入current目录后,发现一系列的数据块文件和数据块元数据文件,
同时还有一些子目录,它们的名字是subdir0到subdir63,子目录下也有数据块文件和数据块元数据,这是因为HDFS限定了每个目录存放数据块文件的数量,多了以后会创建子目录来保存。
数据文件名和元数据文件名的例子:
blk_3148782637964391313
blk_3148782637964391313_242812.meta
上面的例子,3148782637964391313是数据块的ID号,242812是数据块的版本号,用于一致性检查
current/VERSION,保存了一些文件系统的元信息
dncp_block_verification.log.curr和dncp_block_verification.log.prev,它记录了一些DataNode对文件系定时统做一致性检查需要的信息。
在hdfs-site.xml中
<porperty>
<name>dfs.data.dir</name>
<value>/home/hadoop/data</value>
</porperty>
这行数据就代表了数据块存放地址,现在才明白过来。
在Linux上有四个目录
1.current存放的是当前有效的数据块,
2.detach存的是快照
3.tmp保存的hi一些操作需要的临时数据块
4.storage存的是一些出错信息,版本不对..(二进制文件)
进入current目录后,发现一系列的数据块文件和数据块元数据文件,
同时还有一些子目录,它们的名字是subdir0到subdir63,子目录下也有数据块文件和数据块元数据,这是因为HDFS限定了每个目录存放数据块文件的数量,多了以后会创建子目录来保存。
数据文件名和元数据文件名的例子:
blk_3148782637964391313
blk_3148782637964391313_242812.meta
上面的例子,3148782637964391313是数据块的ID号,242812是数据块的版本号,用于一致性检查
current/VERSION,保存了一些文件系统的元信息
dncp_block_verification.log.curr和dncp_block_verification.log.prev,它记录了一些DataNode对文件系定时统做一致性检查需要的信息。
相关文章推荐
- hadoop源码研读之路(七)----HDFS的数据管理
- hadoop源码 - datanode数据块的读与写
- hadoop源码研读之路(七)----HDFS的数据管理
- hadoop源码研读之路(三)----序列化
- HDFS源码分析(5):datanode数据块的读与写DataXceiver
- hadoop源码研读之路(四)----IPC.RPC
- Hadoop源码分析之读文件时NameNode和DataNode的处理过程
- hadoop datanode源码分析
- Hadoop源码分析之DataNode的启动与停止
- Hadoop的namenode的管理机制,工作机制和datanode的工作原理
- hadoop源码之DataNode
- Hadoop2源码分析-HDFS datanode核心模块分析
- hadoop源码研读之路(三)----序列化
- 第126讲:Hadoop集群管理之Datanode目录元数据结构详解学习笔记
- Hadoop源码学习笔记(5) ——回顾DataNode和NameNode的类结构
- hadoop 源码中NameNode与DataNode主要的类目录
- hadoop源码研读之路(六)----RPC的Client端和Server端
- Hadoop源码分析之读文件时NameNode和DataNode的处理过程
- hadoop源码研读之路(五)----Java动态代理
- [hadoop源码阅读][8]-datanode-FSDataset