gpt4 book ai didi

python logging模块的使用总结

转载 作者:qq735679552 更新时间:2022-09-29 22:32:09 24 4
gpt4 key购买 nike

CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.

这篇CFSDN的博客文章python logging模块的使用总结由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.

日志级别 。

  • CRITICAL 50
  • ERROR 40
  • WARNING 30
  • INFO 20
  • DEBUG 10

logging.basicConfig()函数中的具体参数含义 。

  • filename:指定的文件名创建FiledHandler,这样日志会被存储在指定的文件中;
  • filemode:文件打开方式,在指定了filename时使用这个参数,默认值为“w”还可指定为“a”;
  • format:指定handler使用的日志显示格式;
  • datefmt:指定日期时间格式。,格式参考strftime时间格式化(下文)
  • level:设置rootlogger的日志级别
  • stream:用指定的stream创建StreamHandler。可以指定输出到sys.stderr,sys.stdout或者文件,默认为sys.stderr。若同时列出了filename和stream两个参数,则stream参数会被忽略。

format参数用到的格式化信息 。

  。

参数 描述
%(name)s Logger的名字
%(levelno)s 数字形式的日志级别
%(levelname)s 文本形式的日志级别
%(pathname)s 调用日志输出函数的模块的完整路径名,可能没有
%(filename)s 调用日志输出函数的模块的文件名
%(module)s 调用日志输出函数的模块名
%(funcName)s 调用日志输出函数的函数名
%(lineno)d 调用日志输出函数的语句所在的代码行
%(created)f 当前时间,用UNIX标准的表示时间的浮 点数表示
%(relativeCreated)d 输出日志信息时的,自Logger创建以 来的毫秒数
%(asctime)s 字符串形式的当前时间。默认格式是 “2003-07-08 16:49:45,896”。逗号后面的是毫秒
%(thread)d 线程ID。可能没有
%(threadName)s 线程名。可能没有
%(process)d 进程ID。可能没有
%(message)s 用户输出的消息

  。

使用logging打印日志到标准输出 。

?
1
2
3
4
import logging
logging.debug( 'debug message' )
logging.info( 'info message' )
logging.warning( 'warning message' )

 使用logging.baseConfig()将日志输入到文件 。

?
1
2
3
4
5
6
7
8
9
10
11
import os
 
logging.basicConfig(
   filename = os.path.join(os.getcwd(), 'all.log' ),
   level = logging.DEBUG,
   format = '%(asctime)s %(filename)s : %(levelname)s %(message)s' , # 定义输出log的格式
   filemode = 'a' ,
   datefmt = '%Y-%m-%d %A %H:%M:%S' ,
)
 
logging.debug( 'this is a message' )

自定义Logger 。

设置按照日志文件大小自动分割日志写入文件 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
import logging
from logging import handlers
 
 
class Logger( object ):
   level_relations = {
     'debug' : logging.DEBUG,
     'info' : logging.INFO,
     'warning' : logging.WARNING,
     'error' : logging.ERROR,
     'crit' : logging.CRITICAL
   }
 
   def __init__( self , filename, level = 'info' , when = 'D' , backCount = 3 ,
          fmt = '%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s' ):
     self .logger = logging.getLogger(filename)
     format_str = logging.Formatter(fmt) # 设置日志格式
     self .logger.setLevel( self .level_relations.get(level)) # 设置日志级别
 
     # 向控制台输出日志
     stream_handler = logging.StreamHandler()
     stream_handler.setFormatter(format_str)
     self .logger.addHandler(stream_handler)
 
     # 日志按文件大小写入文件
     # 1MB = 1024 * 1024 bytes
     # 这里设置文件的大小为500MB
     rotating_file_handler = handlers.RotatingFileHandler(
       filename = filename, mode = 'a' , maxBytes = 1024 * 1024 * 500 , backupCount = 5 , encoding = 'utf-8' )
     rotating_file_handler.setFormatter(format_str)
     self .logger.addHandler(rotating_file_handler)
 
 
log = Logger( 'all.log' , level = 'info' )
 
log.logger.info( '[测试log] hello, world' )

按照间隔日期自动生成日志文件 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
import logging
from logging import handlers
 
 
class Logger( object ):
   level_relations = {
     'debug' : logging.DEBUG,
     'info' : logging.INFO,
     'warning' : logging.WARNING,
     'error' : logging.ERROR,
     'crit' : logging.CRITICAL
   }
 
   def __init__( self , filename, level = 'info' , when = 'D' , backCount = 3 ,
          fmt = '%(asctime)s - %(pathname)s[line:%(lineno)d] - %(levelname)s: %(message)s' ):
     self .logger = logging.getLogger(filename)
     format_str = logging.Formatter(fmt) # 设置日志格式
     self .logger.setLevel( self .level_relations.get(level)) # 设置日志级别
 
     # 往文件里写入
     # 指定间隔时间自动生成文件的处理器
     timed_rotating_file_handler = handlers.TimedRotatingFileHandler(
       filename = filename, when = when, backupCount = backCount, encoding = 'utf-8' )
 
     # 实例化TimedRotatingFileHandler
     # interval是时间间隔,backupCount是备份文件的个数,如果超过这个个数,就会自动删除,when是间隔的时间单位,单位有以下几种:
     # S 秒
     # M 分
     # H 小时、
     # D 天、
     # W 每星期(interval==0时代表星期一)
     # midnight 每天凌晨
     timed_rotating_file_handler.setFormatter(format_str) # 设置文件里写入的格式
     self .logger.addHandler(timed_rotating_file_handler)
 
     # 往屏幕上输出
     stream_handler = logging.StreamHandler()
     stream_handler.setFormatter(format_str)
     self .logger.addHandler(stream_handler)
 
 
log = Logger( 'all.log' , level = 'info' )
log.logger.info( '[测试log] hello, world' )

logging 模块在Flask中的使用 我在使用Flask的过程中看了很多Flask关于logging的文档,但使用起来不是很顺手,于是自己就根据Flask的官方文档写了如下的log模块,以便集成到Flask中使用.

restful api 项目目录:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
.
├── apps_api
│  ├── common
│  ├── models
│  └── resources
├── logs
├── migrations
│  └── versions
├── static
├── templates
├── test
└── utils
└── app.py
└── config.py
└── exts.py
└── log.py
└── manage.py
└── run.py
└── README.md
└── requirements.txt

log.py 文件 。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
# -*- coding: utf-8 -*-
 
import logging
from flask.logging import default_handler
import os
 
from logging.handlers import RotatingFileHandler
from logging import StreamHandler
 
BASE_DIR = os.path.dirname(os.path.abspath(__file__))
 
LOG_PATH = os.path.join(BASE_DIR, 'logs' )
 
LOG_PATH_ERROR = os.path.join(LOG_PATH, 'error.log' )
LOG_PATH_INFO = os.path.join(LOG_PATH, 'info.log' )
LOG_PATH_ALL = os.path.join(LOG_PATH, 'all.log' )
 
# 日志文件最大 100MB
LOG_FILE_MAX_BYTES = 100 * 1024 * 1024
# 轮转数量是 10 个
LOG_FILE_BACKUP_COUNT = 10
 
 
class Logger( object ):
 
   def init_app( self , app):
         # 移除默认的handler
     app.logger.removeHandler(default_handler)
 
     formatter = logging.Formatter(
       '%(asctime)s [%(thread)d:%(threadName)s] [%(filename)s:%(module)s:%(funcName)s] '
       '[%(levelname)s]: %(message)s'
     )
 
     # 将日志输出到文件
     # 1 MB = 1024 * 1024 bytes
     # 此处设置日志文件大小为500MB,超过500MB自动开始写入新的日志文件,历史文件归档
     file_handler = RotatingFileHandler(
       filename = LOG_PATH_ALL,
       mode = 'a' ,
       maxBytes = LOG_FILE_MAX_BYTES,
       backupCount = LOG_FILE_BACKUP_COUNT,
       encoding = 'utf-8'
     )
 
     file_handler.setFormatter(formatter)
     file_handler.setLevel(logging.INFO)
 
     stream_handler = StreamHandler()
     stream_handler.setFormatter(formatter)
     stream_handler.setLevel(logging.INFO)
 
     for logger in (
         # 这里自己还可以添加更多的日志模块,具体请参阅Flask官方文档
         app.logger,
         logging.getLogger( 'sqlalchemy' ),
         logging.getLogger( 'werkzeug' )
 
     ):
       logger.addHandler(file_handler)
       logger.addHandler(stream_handler)

在exts.py扩展文件中添加log模块 。

?
1
2
3
4
# encoding: utf-8
from log import Logger
 
logger = Logger()

在app.py 文件中引入logger模块,这个文件是create_app的工厂模块.

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
# encoding: utf-8
from flask import Flask
from config import CONFIG
from exts import logger
 
 
def create_app():
   app = Flask(__name__)
 
   # 加载配置
   app.config.from_object(CONFIG)
 
     # 初始化logger
   logger.init_app(app)
 
   return app

运行run.py 。

?
1
2
3
4
5
6
7
8
# -*- coding: utf-8 -*-
 
from app import create_app
 
app = create_app()
 
if __name__ = = '__main__' :
   app.run()
?
1
2
3
4
5
6
7
8
9
10
$ python run.py
* Serving Flask app "app" (lazy loading)
* Environment: production
   WARNING: This is a development server. Do not use it in a production deployment.
   Use a production WSGI server instead.
* Debug mode: on
2019 - 07 - 08 08 : 15 : 50 , 396 [ 140735687508864 :MainThread] [_internal.py:_internal:_log] [INFO]: * Running on http: / / 127.0 . 0.1 : 5000 / (Press CTRL + C to quit)
2019 - 07 - 08 08 : 15 : 50 , 397 [ 140735687508864 :MainThread] [_internal.py:_internal:_log] [INFO]: * Restarting with stat
2019 - 07 - 08 08 : 15 : 50 , 748 [ 140735687508864 :MainThread] [_internal.py:_internal:_log] [WARNING]: * Debugger is active!
2019 - 07 - 08 08 : 15 : 50 , 755 [ 140735687508864 :MainThread] [_internal.py:_internal:_log] [INFO]: * Debugger PIN: 234 - 828 - 739

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我.

原文链接:https://www.cnblogs.com/DeaconOne/p/11153810.html 。

最后此篇关于python logging模块的使用总结的文章就讲到这里了,如果你想了解更多关于python logging模块的使用总结的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com