HDFS基本命令
2016-01-03 21:56
405 查看
HDFS基本命令:
hadoop fs
-cmd
cmd:
具体的操作,基本上与UNIX的命令行相同
args:参数
HDFS资源URI格式:
scheme://authority/path
scheme:协议名,file或hdfs
authority:namenode主机名
path:路径
示例:hdfs://localhost:9000/user/chunk/test.txt
假设已经在core-site.xml里配置了
fs.default.name=hdfs://localhost:9000,则仅使用/user/chunk/test.txt即可。
hdfs默认工作目录为
/user/$USER,$USER是当前的登录用户名。
HDFS命令示例:
hadoop fs -mkdir
/user/trunk
hadoop fs -ls
/user
hadoop fs -lsr /user
(递归的)
hadoop fs -put
test.txt /user/trunk
hadoop fs -put test.txt .
(复制到hdfs当前目录下,首先要创建当前目录)
hadoop fs -get
/user/trunk/test.txt . (复制到本地当前目录下)
hadoop fs -cat
/user/trunk/test.txt
hadoop fs -tail
/user/trunk/test.txt (查看最后1000字节)
hadoop fs -rm
/user/trunk/test.txt
hadoop fs -help ls
(查看ls命令的帮助文档)
图中的2:文件备份数量,因为采用了两台机器的全分布模式,所以此处为2.对于目录,使用-。
在put的时候遇到问题:
put:
org.apache.hadoop.hdfs.server.namenode.SafeModeException:
Cannot
create
file/user/hadoopadmin.
Name
node
is
in
safe
mode.
解法:>bin/hadoop dfsadmin -safemode leave
http://zkl-1987.iteye.com/blog/365587
有关HDFS的官方文档,可以参考如下网址: http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/CommandsManual.html
hadoop fs
-cmd
cmd:
具体的操作,基本上与UNIX的命令行相同
args:参数
HDFS资源URI格式:
scheme://authority/path
scheme:协议名,file或hdfs
authority:namenode主机名
path:路径
示例:hdfs://localhost:9000/user/chunk/test.txt
假设已经在core-site.xml里配置了
fs.default.name=hdfs://localhost:9000,则仅使用/user/chunk/test.txt即可。
hdfs默认工作目录为
/user/$USER,$USER是当前的登录用户名。
HDFS命令示例:
hadoop fs -mkdir
/user/trunk
hadoop fs -ls
/user
hadoop fs -lsr /user
(递归的)
hadoop fs -put
test.txt /user/trunk
hadoop fs -put test.txt .
(复制到hdfs当前目录下,首先要创建当前目录)
hadoop fs -get
/user/trunk/test.txt . (复制到本地当前目录下)
hadoop fs -cat
/user/trunk/test.txt
hadoop fs -tail
/user/trunk/test.txt (查看最后1000字节)
hadoop fs -rm
/user/trunk/test.txt
hadoop fs -help ls
(查看ls命令的帮助文档)
图中的2:文件备份数量,因为采用了两台机器的全分布模式,所以此处为2.对于目录,使用-。
在put的时候遇到问题:
put:
org.apache.hadoop.hdfs.server.namenode.SafeModeException:
Cannot
create
file/user/hadoopadmin.
Name
node
is
in
safe
mode.
解法:>bin/hadoop dfsadmin -safemode leave
http://zkl-1987.iteye.com/blog/365587
有关HDFS的官方文档,可以参考如下网址: http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/CommandsManual.html
相关文章推荐
- hadoop的hdfs文件操作实现上传文件到hdfs
- java连接hdfs ha和调用mapreduce jar示例
- java实现将ftp和http的文件直接传送到hdfs
- 在Hadoop2.5.0下利用Java读写HDFS
- HDFS 文件操作
- Spark中将对象序列化存储到hdfs
- 读<王垠:一种新的操作系统设计>
- hadoop中RPC通信文件上传原理
- 测试Hadoop的hdfs的问题?
- 高可用,完全分布式Hadoop集群HDFS和MapReduce安装配置指南
- hadoop特性讲解
- HDFS 恢复某时刻删除的文件
- #Note# Analyzing Twitter Data with Apache Hadoo...
- tachyon与hdfs,以及spark整合
- CentOS6.5安装Hadoop2.7.1
- HDFS Federation(HDFS 联盟)介绍
- HDFS小文件处理解决方案总结+facebook(HayStack) + 淘宝(TFS)
- HDFS文件系统和OpenStack swift对象存储有何不同
- Hadoop分布式文件系统和OpenStack对象存储有何不同
- Hadoop