- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我有一个 CLI 脚本,它将所有进程记录到一个日志文件中。CLI 的功能之一是通过以下方式上传大文件将其分成几部分并并行上传。在 linux 中,整个过程就像一个魅力,但在 windows 我似乎无法使用 Streamhandler
stream 子进程 (_upload_for_multipart
) 的日志条目来自 logging
模块。 logger.info
中的语句_upload_for_multipart
已正确记录到日志文件 (my_logfile.txt
)但是当 verbose
的参数时,它们不会在终端上流选择 CLI。所有其他语句(在其他函数中)都被流式传输和记录。有什么帮助吗?下面是我面临的问题的完整工作示例。您将不需要任何额外的库来运行它。
import argparse, glob, logging, math, os
from timeit import default_timer as timer
from filechunkio.filechunkio import FileChunkIO
from multiprocessing import cpu_count, Pool, freeze_support, current_process
from sys import exit, exc_info, argv, stdout, version_info, stdout, platform
from time import mktime, strptime
logger = None
def _upload_for_multipart(keyname, offset, multipart, part_num,bytes, parts):
try:
with FileChunkIO(keyname, 'r', offset=offset, bytes=bytes) as fp:
try:
start = timer()
logger.info( 'Uploading part {0}/{1}'.format ( part_num, parts ) )
logger.info('Uploading im MP')
end = timer()
except Exception as e:
logger.error('Some error occured')
exit()
logger.info( 'UPLOADED part {0}/{1} time = {2:0.1f}s Size: {3}'.format (part_num, parts, (end - start), bytes ) )
except Exception as e:
logger.error( 'FAILED uploading {0}.{1}'.format(keyname), e )
exit(1)
def _upload_part(argFile, argBucket, **core_chunk):
file_path = argFile
bucket_name = argBucket
file_name = os.path.basename( file_path )
source_size = os.stat( file_path ).st_size
chunk_size = max(int(math.sqrt(5242880) * math.sqrt(source_size)),
5242880)
chunk_amount = int(math.ceil(source_size / float(chunk_size)))
#mp = s3_bucket.initiate_multipart_upload( file_name )
mp = ''
logger.info('Initiate multipart upload')
logger.info( 'File size of {0} is {1}. Parallel uploads will be used to speed up the process'\
.format( file_name, source_size ) )
start_time = timer()
pool = Pool(processes=1, initializer = init_log, initargs = ( logFile, ) )
for i in range( chunk_amount ):
offset = i * chunk_size
remaining_bytes = source_size - offset
bytes = min( [chunk_size, remaining_bytes] )
part_num = i + 1
start = timer()
pool.apply_async( _upload_for_multipart, [file_name, offset, mp, part_num, bytes, chunk_amount] )
pool.close()
pool.join()
end = timer()
logger.info('Process complete')
def _get_logger( pdir, ldir, lname, level, fmt ):
try:
logs_dir = os.path.join( pdir, ldir )
if not os.path.exists( logs_dir ):
os.makedirs( logs_dir )
except Exception as e:
print ('{}'.format(e))
exit(1)
logging.basicConfig(
filename=os.path.join(logs_dir, lname),
level=level,
format=fmt
)
return logging.getLogger( lname )
def init_log(logFile):
global logger
exec_file = os.path.abspath( argv[0] )
exec_dir = os.path.dirname( exec_file )
default_logger = dict( pdir=exec_dir, ldir='logs', lname='error.log', level='ERROR',
fmt='%(asctime)s %(levelname)s: %(message)s' )
log_filename = logFile
level = 'INFO'
format = '%(asctime)s %(levelname)s: %(message)s'
default_logger.update( fmt=format, level=level, lname = log_filename )
if os.path.isabs( log_filename ):
bdir, log_filename = os.path.split( log_filename )
default_logger.update(pdir='', ldir = bdir, lname = log_filename )
logger = _get_logger( **default_logger )
if __name__ == "__main__":
freeze_support()
parser = argparse.ArgumentParser( description="CLI." )
group = parser.add_mutually_exclusive_group()
group.add_argument( "-v", "--verbose", action='store_const', const=True, help="Output process messages to stdout \
channel")
args = parser.parse_args()
logFile = 'mylogfile.txt'
init_log(logFile)
bucket_name = 'some-bucket'
if args.verbose:
try:
print_handler = logging.StreamHandler( stdout )
print_handler.setLevel( logging.DEBUG )
formatter = logging.Formatter( '%(asctime)s %(levelname)s: %(message)s' )
print_handler.setFormatter( formatter )
logger.addHandler( print_handler )
except (NoOptionError, NoSectionError) as e:
logger.exception( e )
logger.info('Establishing Connection')
_upload_part('large_testfile.log', bucket_name)
最佳答案
StreamHandler
在子进程中不起作用,因为您只是在父进程中设置它。您需要在 init_log
中完成所有您的日志记录设置,以便它在 child 中生效:
# ... This stuff is the same...
def _upload_part(argFile, argBucket, verbose, **core_chunk): # Add verbose argument
#... Same until you declare the Pool
pool = Pool(processes=1, initializer=init_log, initargs=(logFile, verbose)) # Add verbose to initargs
# All the same ...
def init_log(logFile, verbose):
global logger
exec_file = os.path.abspath( argv[0] )
exec_dir = os.path.dirname( exec_file )
default_logger = dict( pdir=exec_dir, ldir='logs', lname='error.log', level='ERROR',
fmt='%(asctime)s %(levelname)s: %(message)s' )
log_filename = logFile
level = 'INFO'
format = '%(asctime)s %(levelname)s: %(message)s'
default_logger.update( fmt=format, level=level, lname = log_filename )
if os.path.isabs( log_filename ):
bdir, log_filename = os.path.split( log_filename )
default_logger.update(pdir='', ldir = bdir, lname = log_filename )
logger = _get_logger( **default_logger )
if verbose: # Set up StreamHandler here
try:
print_handler = logging.StreamHandler(stdout)
print_handler.setLevel(logging.DEBUG)
formatter = logging.Formatter('%(asctime)s %(levelname)s: %(message)s')
print_handler.setFormatter(formatter)
logger.addHandler(print_handler)
except (NoOptionError, NoSectionError) as e:
logger.exception(e)
if __name__ == "__main__":
freeze_support()
parser = argparse.ArgumentParser( description="CLI." )
group = parser.add_mutually_exclusive_group()
group.add_argument( "-v", "--verbose", action='store_const', const=True, help="Output process messages to stdout \
channel")
args = parser.parse_args()
logFile = 'mylogfile.txt'
init_log(logFile)
bucket_name = 'some-bucket'
logger.info('Establishing Connection')
_upload_part('large_testfile.log', bucket_name, args.verbose) # Pass args.verbose
关于Python - 在多处理环境中使用 Streamhandler,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29926221/
对于 Metal ,如果对主纹理进行 mipmap 处理,是否还需要对多采样纹理进行 mipmap 处理?我阅读了苹果文档,但没有得到任何相关信息。 最佳答案 Mipmapping 适用于您将从中
我正在使用的代码在后端 Groovy 代码中具有呈现 GSP(Groovy 服务器页面)的 Controller 。对于前端,我们使用 React-router v4 来处理路由。我遇到的问题是,通过
我们正在 build 一个巨大的网站。我们正在考虑是在服务器端(ASP .Net)还是在客户端进行 HTML 处理。 例如,我们有 HTML 文件,其作用类似于用于生成选项卡的模板。服务器端获取 HT
我正在尝试将图像加载到 void setup() 中的数组中,但是当我这样做时出现此错误:“类型不匹配,'processing .core.PImage' does not匹配“processing.
我正在尝试使用其私有(private)应用程序更新 Shopify 上的客户标签。我用 postman 尝试过,一切正常,但通过 AJAX,它带我成功回调而不是错误,但成功后我得到了身份验证链接,而不
如何更改我的 Processing appIconTest.exe 导出的默认图标在窗口中的应用程序? 默认一个: 最佳答案 经过一些研究,我能找到的最简单的解决方案是: 进入 ...\process
我在 Processing 中做了一个简单的小游戏,但需要一些帮助。我有一个 mp3,想将它添加到我的应用程序中,以便在后台循环运行。 这可能吗?非常感谢。 最佳答案 您可以使用声音库。处理已经自带
我有几个这样创建的按钮: 在 setup() PImage[] imgs1 = {loadImage("AREA1_1.png"),loadImage("AREA1_2.png"),loadImage
我正在尝试使用 Processing 创建一个多人游戏,但无法弄清楚如何将屏幕分成两个以显示玩家的不同情况? 就像在 c# 中一样,我们有Viewport leftViewport,rightView
我一直在尝试使用 Moore 邻域在处理过程中创建元胞自动机,到目前为止非常成功。我已经设法使基本系统正常工作,现在我希望通过添加不同的功能来使用它。现在,我检查细胞是否存活。如果是,我使用 fill
有没有办法用 JavaScript 代码检查资源使用情况?我可以检查脚本的 RAM 使用情况和 CPU 使用情况吗? 由于做某事有多种方法,我可能会使用不同的方法编写代码,并将其保存为两个不同的文件,
我想弄清楚如何处理这样的列表: [ [[4,6,7], [1,2,4,6]] , [[10,4,2,4], [1]] ] 这是一个整数列表的列表 我希望我的函数将此列表作为输入并返回列表中没有重复的整
有没有办法在不需要时处理 MethodChannel/EventChannel ?我问是因为我想为对象创建多个方法/事件 channel 。 例子: class Call { ... fields
我有一个关于在 Python3 中处理 ConnectionResetError 的问题。这通常发生在我使用 urllib.request.Request 函数时。我想知道如果我们遇到这样的错误是否可
我一直在努力解决这个问题几个小时,但无济于事。代码很简单,一个弹跳球(粒子)。将粒子的速度初始化为 (0, 0) 将使其保持上下弹跳。将粒子的初始化速度更改为 (0, 0.01) 或任何十进制浮点数都
我把自己弄得一团糟。 我想在我的系统中添加 python3.6 所以我决定在我的 Ubuntu 19.10 中卸载现有的。但是现在每次我想安装一些东西我都会得到这样的错误: dpkg: error w
我正在努力解决 Rpart 包中的 NA 功能。我得到了以下数据框(下面的代码) Outcome VarA VarB 1 1 1 0 2 1 1 1
我将 Java 与 JSF 一起使用,这是 Glassfish 3 容器。 在我的 Web 应用程序中,我试图实现一个文件(图像)管理系统。 我有一个 config.properties我从中读取上传
所以我一直在Processing工作几个星期以来,虽然我没有编程经验,但我已经转向更复杂的项目。我正在编写一个进化模拟器,它会产生具有随机属性的生物。 最终,我将添加复制,但现在这些生物只是在屏幕上漂
有人知道 Delphi 2009 对“with”的处理有什么不同吗? 我昨天解决了一个问题,只是将“with”解构为完整引用,如“with Datamodule、Dataset、MainForm”。
我是一名优秀的程序员,十分优秀!