您的位置:首页 > 运维架构

hadoop【HDFS的基本命令】

2017-10-04 00:26 435 查看
1.先进入到Hadoop用户下,然后:cd /usr/local/hadoop-0.20.2-cdh3u5/

ls一下

这时候会看见一个bin目录,bin目录下的,都是我们的命令。像JDK里面,bin目录里面不也是我们的命令嘛,像Java、javac。所以同样的,我们的Hadoop命令也在bin目录下。

2.cd bin

ls一下

Start-all.sh(开启集群的意思),stop-all.sh(关闭所有集群),start-dfs.sh(开启HDFS 的所有进程),stop-dfs.sh(关闭HDFS的所有进程),hadoop-damon.sh(开启指定的一台机器),hadoop-damons.sh(开启多台机器)。

3.要输入Hadoop的命令,必须要进入到Hadoop的bin目录下,格式为:hadoop fs <args>,
<args>为参数命令。

4.Bin目录下执行脚本,必须是./ 这样才能运行,别忘了,我的天啊,你肯定会忘的,并且是 ./hadoop ./和Hadoop这个单词是连在一起,不是分开有空格的。

5.好了,接下来就是实际命令了:
./hadoop fs -ls hdfs://h103:9000/
(fs表示文件系统,-ls后面接的就是你要查看的哪个目录下的内容,9000后面的斜杠/表示是我的目录)
但是我又换一种写法写:./hadoop fs -ls /
(这输出的结果是一样的,因为我的主机名就是h103,只要在我的集群上,ls空格后面的/,默认就是我的全路径hdfs://h103:9000/,所以这两种命令都是一样的)

6.但是要是有人质问你,这样处理的结果tmp不是你本地的嘛,但这不是的,因为只有 :ls /
这个命令,出来的才是本地的系统文件,比如srv,tmp啥的。

7.创建目录:./hadoop fs -mkdir /user(创建的一个user 的目录)
./hadoo fs -ls / (查看一下,是不是就有了)
记住,这是Hadoop里,不是ls一下就可以了,是 ./hadoop fs -ls / 这样的

8.这时user创建了,单我还想在user在创建一个,那命令是: ./hadoop fs -mkdir /user/hadoop (一级一级的创建)。
注意了,我要是还像用上个命令 ./hadoop fs -ls / 查看能看到吗,当然不能,只能看到user目录,所以我就要用 ./hadoop fs -ls /user 这个命令才能查看。
为什么说刚才创建的Hadoop是目录呢,就是因为出来的是“drwxr-xr-x”,d就是目录的意思。

9.上传文件:
(1.先在本地创建个文件:vi a.txt
(2.编写
(3.Cat a.txt
(4.先在要把它上传到集群user下的Hadoop下
(5.上传命令:./hadoop fs -put a.txt /user/hadoop
(6.这时再来查看一下:./hadoop fs -ls /user/hadoop/
(7.这时候就上传了,但是我上传之后怎么看是个文件,那就看前面“-rw-r--r--”,-r就是文件的意思
(8.接下来我要查看文件里的内容:./hadoop fs -cat /user/hadoop/a.txt
(9.要是有人说,这a.txt是本地的,那把本地文件删除:rm -rf a.txt,本地文件是没有了,可是我仍然./hadoop fs -cat /user/hadoop/a.txt,仍然是能看见的,这也足以证明,我这个a.txt文件已经上传到我的集群里。

10.本地的a.txt删除了吧,我想把集群里的文件下载到本地:./hadoop fs -get /user/hadoop/a.txt ./ ,这时候cat a.txt,就看见已经在本地里了。

11.删除文件:./hadoop fs -rm /user/hadoop/a.txt
回车后:DELETE hdfs:,,,,,,,,,这就是删除了。

12.在home下创建一个目录:./hadoop fs -mkdir /user/hadoop/aaaa
查看目录:./hadoop fs -ls /user/hadoop/

13.删除目录:./hadoop fs -rmr /user/hadoop/aaaa

14.删除我的Hadoop的目录:./hadoop fs -rmr /user/hadoop

(-rm是删除文件的命令,-rmr是删除文件和目录的命令,通用的)!

15.再给他创建回来:./hadoop fs -mkdir /user/hadoop/aaaa
查看创建好了吗,./hadoop fs -ls /user/hadoop(所以可以一下创建2级)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  基础 hadoop