hadoop提交任务后日志存放问题
2015-08-21 12:59
274 查看
hadoop提交任务后,会有日志记录此次执行的情况。目前这些日志都保留在hdfs文件系统中,生成了大量的小文件,从而耗费了大量的磁盘空间。如果每天提交的任务多且频繁,磁盘空间消耗的速率是比较惊人的。
可清理的日志路径:
/user/history
/tmp
/user/root/.Trash
如下图所示,上面的部分是清除日志后磁盘的使用率与block块的数量,下图是没清理的。
4000
这样处理有两个弊端:
1、无法从页面中查询到历史任务的运行状态。
2、每次清理时都是手工执行删除。
可清理的日志路径:
/user/history
/tmp
/user/root/.Trash
如下图所示,上面的部分是清除日志后磁盘的使用率与block块的数量,下图是没清理的。
4000
这样处理有两个弊端:
1、无法从页面中查询到历史任务的运行状态。
2、每次清理时都是手工执行删除。
相关文章推荐
- Linux按文件内容查找文件
- Nginx + PHP(php-fpm)遇到的502 Bad Gateway错误
- 【网站部署】解析二级域名并部署网站
- 【网站部署】解析二级域名并部署网站
- bash 截取字符串
- CentOS6.4下一次顽固病毒的排查与处理
- 在虚拟环境下安装centos6.7和centos7.1操作系统
- [优化篇]OpenStack的Cinder后端存储技术——GlusterFS(1)
- 作为一个新人,怎样学习嵌入式Linux?(韦东山)
- Linux--Sys_Read系统调用过程分析
- linux中shell变量$#,$@,$0,$1,$2的含义解释
- App工程结构搭建:几种常见Android代码架构分析
- Linux 命令大全
- oozie(4.1.0)架构及二次开发流程
- mysql linux 5.6 去掉 STRICT_TRANS_TABLES
- nginx限制用户下载文件速率
- linux查找关键字在php出现的次数
- Linux 通过ssh传输文件
- linux进程管理
- win7系统配置php+Apache+mysql环境的方法