hadoop 的HDFS文件系统
2012-12-11 01:33
429 查看
一,NameNode 元数据节点:管理文件系统
secondary namenode从元数据节点:元数据节点的别用节点
二,DataNode 数据节点:存储数据的地方
1)客户端向其请求读取或写入文件,元数据节点发起
2)周期性的想元数据节点回报当前存储的数据快信息
三,Block数据块:最基本的存储单位,默认64m,当一个文件大小小于一个数据块的大小时,并不会占用整个数据块的空间
write
1),Client向NameNode发起文件写入的请求。
2),NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息。
30,Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中。
read
1),Client向NameNode发起文件读取的请求。
2),NameNode返回文件存储的DataNode的信息。
3),Client读取文件信息。
简单操作:
当前HDFS的基本信息
$:hadoop dfsadmin -report
Configured Capacity: 15217328128 (14.17 GB)
Present Capacity: 8593608704 (8 GB)
DFS Remaining: 8593297408 (8 GB)
DFS Used: 311296 (304 KB)
DFS Used%: 0%
Under replicated blocks: 1
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 15217328128 (14.17 GB)
DFS Used: 311296 (304 KB)
Non DFS Used: 6623719424 (6.17 GB)
DFS Remaining: 8593297408(8 GB)
DFS Used%: 0%
DFS Remaining%: 56.47%
Last contact: Tue Dec 11 01:16:30 CST 2012
列出HDFS的文件
$;hadoop fs -ls
Found 2 items
-rw-r--r-- 3 sin supergroup 13 2012-12-05 01:43 /user/demo.txt
drwxr-xr-x - sin supergroup 0 2012-11-18 15:17 /user/docs
cat;
$ hadoop fs -cat /user/demo.txt
test-测试
secondary namenode从元数据节点:元数据节点的别用节点
二,DataNode 数据节点:存储数据的地方
1)客户端向其请求读取或写入文件,元数据节点发起
2)周期性的想元数据节点回报当前存储的数据快信息
三,Block数据块:最基本的存储单位,默认64m,当一个文件大小小于一个数据块的大小时,并不会占用整个数据块的空间
write
1),Client向NameNode发起文件写入的请求。
2),NameNode根据文件大小和文件块配置情况,返回给Client它所管理部分DataNode的信息。
30,Client将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块中。
read
1),Client向NameNode发起文件读取的请求。
2),NameNode返回文件存储的DataNode的信息。
3),Client读取文件信息。
简单操作:
当前HDFS的基本信息
$:hadoop dfsadmin -report
Configured Capacity: 15217328128 (14.17 GB)
Present Capacity: 8593608704 (8 GB)
DFS Remaining: 8593297408 (8 GB)
DFS Used: 311296 (304 KB)
DFS Used%: 0%
Under replicated blocks: 1
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 15217328128 (14.17 GB)
DFS Used: 311296 (304 KB)
Non DFS Used: 6623719424 (6.17 GB)
DFS Remaining: 8593297408(8 GB)
DFS Used%: 0%
DFS Remaining%: 56.47%
Last contact: Tue Dec 11 01:16:30 CST 2012
列出HDFS的文件
$;hadoop fs -ls
Found 2 items
-rw-r--r-- 3 sin supergroup 13 2012-12-05 01:43 /user/demo.txt
drwxr-xr-x - sin supergroup 0 2012-11-18 15:17 /user/docs
cat;
$ hadoop fs -cat /user/demo.txt
test-测试
相关文章推荐
- Hadoop中HDFS文件系统NameNode的Federation设计文档(HDFS-1052:Hdfs scalability with multiple namenodes)
- HaDoop文件系统HDFS的浏览器查看
- hadoop HDFS文件系统的特征
- Hadoop硬实战之一:使用flume将系统日志文件导入HDFS
- Hadoop Hdfs 分布文件系统安装与部署
- hadoop HDFS文件系统的特征
- hadoop(三)HDFS 文件系统
- Hadoop Hdfs 配置 挂载hdfs文件系统
- curl操作hadoop hdfs文件系统
- 使用HDFS API实现hadoop HDFS文件系统的基本操作
- Hadoop(2)HDFS文件系统
- eclipse使用JavaAPI操纵Hadoop的HDFS文件系统时提示权限不足的解决方案
- 浅谈Hadoop下HDFS文件系统
- 用FUSE挂载hadoop的hdfs文件系统
- Hadoop中HDFS文件系统NameNode的Federation设计文档(HDFS-1052:Hdfs scalability with multiple namenodes)
- Hadoop (HDFS)分布式文件系统基本操作
- Hadoop实验:按规则读取HDFS文件系统写入到本地
- Hadoop HDFS概念学习系列之分布式文件管理系统(二十五)
- hadoop hdfs文件系统常用命令
- hadoop hdfs文件系统文件以存在 解决办法