您好,登录后才能下订单哦!
这篇文章给大家介绍python中怎么利用TimedRotatingFileHandler按时间切割日志,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
通过TimedRotatingFileHandler按时间切割日志
线上跑了一个定时脚本,每天生成的日志文件都写在了一个文件中。但是日志信息不可能输出到单一的一个文件中。
原因有二:1.日志文件越来越大会影响系统的性能。2.日志文件格式不够清晰,比如我想看今天的日志,不太方便找到的今天的日志信息(即使对日志输出做了时间提示)
通过设置 TimedRotatingFileHandler
进行日志按周(W)、天(D)、时(H)、分(M)、秒(S)切割。
先看一个简单例子:
import time import logging import os from logging import handlers def _logging(**kwargs): level = kwargs.pop('level', None) filename = kwargs.pop('filename', None) datefmt = kwargs.pop('datefmt', None) format = kwargs.pop('format', None) if level is None: level = logging.DEBUG if filename is None: filename = 'default.log' if datefmt is None: datefmt = '%Y-%m-%d %H:%M:%S' if format is None: format = '%(asctime)s [%(module)s] %(levelname)s [%(lineno)d] %(message)s' log = logging.getLogger(filename) format_str = logging.Formatter(format, datefmt) # backupCount 保存日志的数量,过期自动删除 # when 按什么日期格式切分(这里方便测试使用的秒) th = handlers.TimedRotatingFileHandler(filename=filename, when='S', backupCount=3, encoding='utf-8') th.setFormatter(format_str) th.setLevel(logging.INFO) log.addHandler(th) log.setLevel(level) return log os.makedirs("./logs", exist_ok=True) logger = _logging(filename='./logs/default.log') if __name__ == '__main__': while True: time.sleep(0.1) logger.info('哈哈哈')
结果如下:
上述代码可以正常运行,而且也可以生成固定的日志个数,但是有一个问题,生成的日志文件格式是你的 文件名+时间 的格式,没有设置时间的话默认设置到了秒(这里是按秒切割)
修改日志格式后缀名称:
# 在上述代码中加入 def namer(filename): return filename.split('default.') th.namer = namer # 设置为S,默认的suffix为 Y-%m-%d_%H-%M-%S th.suffix = "%Y-%m-%d_%H-%M-%S.log" # 为了看的更视觉效果,可以显示在控制台答应 cmd = logging.StreamHandler() cmd.setFormatter(format_str) cmd.setLevel(level) log.addHandler(cmd)
运行结果:
名字好像可以了,但是日志好像没有起到自动删除的目的啊,而且也没在之前的log文件夹了。
来看看源码:
def getFilesToDelete(self): """ Determine the files to delete when rolling over. More specific than the earlier method, which just used glob.glob(). """ dirName, baseName = os.path.split(self.baseFilename) fileNames = os.listdir(dirName) result = [] prefix = baseName + "." plen = len(prefix) for fileName in fileNames: if fileName[:plen] == prefix: suffix = fileName[plen:] if self.extMatch.match(suffix): result.append(os.path.join(dirName, fileName)) if len(result) < self.backupCount: result = [] else: result.sort() result = result[:len(result) - self.backupCount] return result
这是它的删除逻辑,关键是通过 . 前面的字段判断是否重复,当有特定的重复数后开始删除。
所以问题来了,要么自己去重写源码,要么就只能用 default.日期.log 这种格式了。
附上平时使用的日志代码
import logging import os from logging import handlers def _logging(**kwargs): level = kwargs.pop('level', None) filename = kwargs.pop('filename', None) datefmt = kwargs.pop('datefmt', None) format = kwargs.pop('format', None) if level is None: level = logging.DEBUG if filename is None: filename = 'default.log' if datefmt is None: datefmt = '%Y-%m-%d %H:%M:%S' if format is None: format = '%(asctime)s [%(module)s] %(levelname)s [%(lineno)d] %(message)s' log = logging.getLogger(filename) format_str = logging.Formatter(format, datefmt) def namer(filename): return filename.split('default.')[1] # cmd = logging.StreamHandler() # cmd.setFormatter(format_str) # cmd.setLevel(level) # log.addHandler(cmd) os.makedirs("./debug/logs", exist_ok=True) th_debug = handlers.TimedRotatingFileHandler(filename="./debug/" + filename, when='D', backupCount=3, encoding='utf-8') # th_debug.namer = namer th_debug.suffix = "%Y-%m-%d.log" th_debug.setFormatter(format_str) th_debug.setLevel(logging.DEBUG) log.addHandler(th_debug) th = handlers.TimedRotatingFileHandler(filename=filename, when='D', backupCount=3, encoding='utf-8') # th.namer = namer th.suffix = "%Y-%m-%d.log" th.setFormatter(format_str) th.setLevel(logging.INFO) log.addHandler(th) log.setLevel(level) return log os.makedirs('./logs', exist_ok=True) logger = _logging(filename='./logs/default')
关于python中怎么利用TimedRotatingFileHandler按时间切割日志就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。