Nginx日志轮询切割
2016-06-07 14:22
381 查看
Nginx日志轮询切割
默认情况下,Nginx会把所有的访问日志生成到一个指定的访问日志文件access*.log里,但这样一来,时间长了就会导致日志单个文件很大,不利于日志的分析和处理,因此有必要对Nginx日志按天或者按小时等进行分割,具体要看具体线上业务,使其分成不同的文件保存。这里我们按天进行切割日志。
1.配置日志切割脚本,具体如下:
[root@localhost ~]# mkdir -p /server/scripts/
[root@localhost ~]# cd /server/scripts/
[root@localhost scripts]# vim cut_nginx_log.sh
#!/bin/bash
#---------------------------------------
#Author:jeff
#date:2016-06-07
#Function:cut nginx logs every day
#Version:1.0
#---------------------------------------
#定义相关变量
Nginx_Dir=/usr/local/nginx
Nginx_Log_Dir=${Nginx_Dir}/logs
Date=`date +%Y%m%d`
Date3Ago=`date +%Y%m%d -d "3 days ago"`
Nginx_Cmd=${Nginx_Dir}/sbin/nginx
#对日志进行切割
[ -d ${Nginx_Log_Dir} ] && cd ${Nginx_Log_Dir} || exit 1
for log_name in access_www access_blog access_bbs
do
/bin/mv ${log_name}.log ${log_name}_$Date.log
done
${Nginx_Cmd} -s reload
#对3天前日志文件进行打包压缩,并只保留15天的日志
for log_name in access_www access_blog access_bbs
do
[ -f ${log_name}_${Date3Ago}.log ] && \
/bin/tar -zcf ${log_name}_${Date3Ago}.tar.gz ${log_name}_${Date3Ago}.log && \
/bin/rm -f ${log_name}_${Date3Ago}.log
/bin/find ${Nginx_Log_Dir} -name "${log_name}_*.tar.gz" -mtime 15 -exec rm -f {} \;
done
2.将此脚本保存后加入服务器端的定时任务配置里,让脚本在每天凌晨0点执行,就可以实现日志的
每天分割功能,具体如下:
[root@localhost scripts]# crontab -e
#!/bin/bash
# cut nginx log by every day
0 0 * * * /bin/sh /server/script/cut_nginx_log.sh >/dev/null 2>&1
3.最终日志切割如图所示
默认情况下,Nginx会把所有的访问日志生成到一个指定的访问日志文件access*.log里,但这样一来,时间长了就会导致日志单个文件很大,不利于日志的分析和处理,因此有必要对Nginx日志按天或者按小时等进行分割,具体要看具体线上业务,使其分成不同的文件保存。这里我们按天进行切割日志。
1.配置日志切割脚本,具体如下:
[root@localhost ~]# mkdir -p /server/scripts/
[root@localhost ~]# cd /server/scripts/
[root@localhost scripts]# vim cut_nginx_log.sh
#!/bin/bash
#---------------------------------------
#Author:jeff
#date:2016-06-07
#Function:cut nginx logs every day
#Version:1.0
#---------------------------------------
#定义相关变量
Nginx_Dir=/usr/local/nginx
Nginx_Log_Dir=${Nginx_Dir}/logs
Date=`date +%Y%m%d`
Date3Ago=`date +%Y%m%d -d "3 days ago"`
Nginx_Cmd=${Nginx_Dir}/sbin/nginx
#对日志进行切割
[ -d ${Nginx_Log_Dir} ] && cd ${Nginx_Log_Dir} || exit 1
for log_name in access_www access_blog access_bbs
do
/bin/mv ${log_name}.log ${log_name}_$Date.log
done
${Nginx_Cmd} -s reload
#对3天前日志文件进行打包压缩,并只保留15天的日志
for log_name in access_www access_blog access_bbs
do
[ -f ${log_name}_${Date3Ago}.log ] && \
/bin/tar -zcf ${log_name}_${Date3Ago}.tar.gz ${log_name}_${Date3Ago}.log && \
/bin/rm -f ${log_name}_${Date3Ago}.log
/bin/find ${Nginx_Log_Dir} -name "${log_name}_*.tar.gz" -mtime 15 -exec rm -f {} \;
done
2.将此脚本保存后加入服务器端的定时任务配置里,让脚本在每天凌晨0点执行,就可以实现日志的
每天分割功能,具体如下:
[root@localhost scripts]# crontab -e
#!/bin/bash
# cut nginx log by every day
0 0 * * * /bin/sh /server/script/cut_nginx_log.sh >/dev/null 2>&1
3.最终日志切割如图所示
相关文章推荐
- nginx代理指定目录
- 访问Nginx发生SSL connection error的一种情况
- Nginx+Naxsi部署专业级Web应用防火墙
- CentOS 6.2实战部署Nginx+MySQL+PHP
- MySQL Server 日志
- nginx中http核心模块的配置指令2
- nginx中http核心模块的配置指令3
- nginx中http核心模块的配置指令4
- nginx中http的fastcgi模块的配置指令1
- Nginx 学习笔记(一)
- 网站502与504错误分析
- 用zabbix监控nginx_status状态
- 艰难完成 nginx + puma 部署 rails 4的详细记录
- MSSQL 2005 LOG备份webshell的方法
- 把Lua编译进nginx步骤方法
- 使用MySQL Slow Log来解决MySQL CPU占用高的问题
- web 应用中常用的各种 cache详解
- Linux系统上配置Nginx+Ruby on Rails+MySQL超攻略
- window+nginx+php环境配置 附配置搭配说明