hadoop 基本文件操作命令
2014-04-02 16:41
363 查看
1.将本地文件拷贝到 hdfs 文件系统中
bin/hadoop fs -copyFromLocal /server/bin/nutch/urls/url.txt urls
2.将hdfs中的文件拷贝到本地路径
bin/hadoop fs -copyToLocal urls(hdfs文件) /opt/index (本地路径)
3.查看hdfs文件系统内文件列表
bin/hadoop dfs -ls
4.删除hdfs文件系统中的文件
bin/hadoop dfs -rmr urls
5.进入hdfs 目录
bin/hadoop fs -ls /user/admin/aaron
6. 创建目录
bin/hadoop fs -mkdir /user/suse/newDir
7.删除文件
bin/hadoop fs -rm /user/suse/crawl/needDelete
8.删除目录下所有文件
bin/hadoop fs -rmr /user/suse/
9.查看文件内容
bin/hadoop fs –cat /user/suse/newFile
相关文章推荐
- apache-squid代理及负载均衡
- Linux的内存管理主要分为两部分:物理地址到虚拟地址的映射,内核内存分配管理(主要基于slab)。
- 浅析做好电商网站外链需要具备哪些条件
- 不允许lseek文件 | nonseekable_open()
- 【linux学习笔记】awk用法总结
- linux 本地iso文件 挂载
- NopCommerce 开源商城下载配置安装
- Linux环境下源码编译安装MySQL5.5
- MVC多层架构
- socket编程在windows和linux下的区别
- 高通安卓调试LCD几方面总结(二)
- OBS (open boardcast server)结构分析
- Nginx一致性哈希模块的Lua实现
- 网卡驱动11-网卡中的广播地址 0x8000解释
- linux批量重命名转
- 网站模板
- 织梦DEDECMS网站后台安全检测提示 加一个开关
- 揭秘淘宝286亿海量图片存储与处理架构
- Tomcat启动错误
- Linux内存映射: mmap