nginx日志分割 for linux
2014-03-09 23:20
549 查看
默认情况下,nginx是不分割访问日志的,久而久之,网站的日志文件将会越来越大,占用空间不说,如果有问题要查看网站的日志的话,庞大的文件也将很难打开,于是便有了下面的脚本!
使用方法,先将以下脚本保存为 cutlog.sh,放在/root 目录下,然后给予此脚本执行的权限
,然后使用crontab -e 将此脚本加入到计划任务中,
让此脚本每天凌晨0点0分执行。
使用方法,先将以下脚本保存为 cutlog.sh,放在/root 目录下,然后给予此脚本执行的权限
chmod +x cutlog.sh
,然后使用crontab -e 将此脚本加入到计划任务中,
00 00 * * * /bin/bash /root/cutlog.sh
让此脚本每天凌晨0点0分执行。
#!/bin/bash #function:cut nginx log files shell #author: http://www.52listen.com #设置您的网站访问日志保存的目录,我的统一放在了/home/wwwlogs目录下 log_files_path="/home/wwwlogs/" log_files_dir=${log_files_path}$(date -d "yesterday" +"%Y")/$(date -d "yesterday" +"%m") #设置你想切割的nginx日志文件名称,比如设置的日志文件名是52listen.com.log 的话,那这里直接填写 52listen.com 即可 log_files_name=(52listen.com access) #设置nginx执行文件的路径。 nginx_sbin="/usr/local/nginx/sbin/nginx" #设置你想保存的日志天数,我这里设置的是保存30天之前的日志 save_days=30 ############################################ #Please do not modify the following script # ############################################ mkdir -p $log_files_dir log_files_num=${#log_files_name[@]} #cut nginx log files for((i=0;i<$log_files_num;i++));do mv ${log_files_path}${log_files_name[i]}.log ${log_files_dir}/${log_files_name[i]}_$(date -d "yesterday" +"%Y%m%d").log done #delete 30 days ago nginx log files find $log_files_path -mtime +$save_days -exec rm -rf {} \; $nginx_sbin -s reload
相关文章推荐
- nginx日志分割 for linux
- Nginx日志分割脚本
- nginx日志自动分割的完美实现
- [日志分割回滚] 使用linux自带的logrotate对nginx日志进行分割(脚本)
- Nginx日志分割
- logrotate 进行nginx日志分割
- Nginx日志配置及分割
- Nginx 日志自动分割脚本
- centos中nginx按日期自动分割访问日志
- nginx 设置日志分割
- 【日志分割】使用crontab和bash脚本分割nginx日志
- 自动分割nginx服务的日志文件
- 对nginx的日志进行分割的shell脚本
- nginx在不重启进程的情况下,分割nginx日志,每天一个日志
- logrotate 进行nginx日志分割
- nginx日志分割(log rotation)
- 使用 logrotate 进行 nginx 日志分割
- Nginx 日志分割文档说明 ---谷营中西软件科技园
- nginx 或tengine 访问日志分割处理
- Shell脚本分割Nginx日志,并定期清理