- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
根据我们客户的一个要求,我必须开发一个应用程序,它应该能够处理巨大的 CSV 文件。文件大小可能在 10 MB - 2GB 的范围内。
根据大小,模块决定是使用Multiprocessing pool
还是使用普通的CSV reader
读取文件。但从观察来看,多处理
比正常 CSV 读取
花费更长的时间,当测试大小为 100 MB 的文件的两种模式时。
这是正确的行为吗?或者我做错了什么?
这是我的代码:
def set_file_processing_mode(self, fpath):
""" """
fsize = self.get_file_size(fpath)
if fsize > FILE_SIZE_200MB:
self.read_in_async_mode = True
else:
self.read_in_async_mode = False
def read_line_by_line(self, filepath):
"""Reads CSV line by line"""
with open(filepath, 'rb') as csvin:
csvin = csv.reader(csvin, delimiter=',')
for row in iter(csvin):
yield row
def read_huge_file(self, filepath):
"""Read file in chunks"""
pool = mp.Pool(1)
for chunk_number in range(self.chunks): #self.chunks = 20
proc = pool.apply_async(read_chunk_by_chunk,
args=[filepath, self.chunks, chunk_number])
reader = proc.get()
yield reader
pool.close()
pool.join()
def iterate_chunks(self, filepath):
"""Read huge file rows"""
for chunklist in self.read_huge_file(filepath):
for row in chunklist:
yield row
@timeit #-- custom decorator
def read_csv_rows(self, filepath):
"""Read CSV rows and pass it to processing"""
if self.read_in_async_mode:
print("Reading in async mode")
for row in self.iterate_chunks(filepath):
self.process(row)
else:
print("Reading in sync mode")
for row in self.read_line_by_line(filepath):
self.process(row)
def process(self, formatted_row):
"""Just prints the line"""
self.log(formatted_row)
def read_chunk_by_chunk(filename, number_of_blocks, block):
'''
A generator that splits a file into blocks and iterates
over the lines of one of the blocks.
'''
results = []
assert 0 <= block and block < number_of_blocks
assert 0 < number_of_blocks
with open(filename) as fp :
fp.seek(0,2)
file_size = fp.tell()
ini = file_size * block / number_of_blocks
end = file_size * (1 + block) / number_of_blocks
if ini <= 0:
fp.seek(0)
else:
fp.seek(ini-1)
fp.readline()
while fp.tell() < end:
results.append(fp.readline())
return results
if __name__ == '__main__':
classobj.read_csv_rows(sys.argv[1])
这是一个测试:
$ python csv_utils.py "input.csv"
Reading in async mode
FINISHED IN 3.75 sec
$ python csv_utils.py "input.csv"
Reading in sync mode
FINISHED IN 0.96 sec
问题是:
为什么异步模式需要更长的时间?
注意:删除了不必要的函数/行以避免代码复杂
最佳答案
Is this correct behaviour?
是的 - 它可能不是您所期望的,但它与您实现它的方式以及 multiprocessing
的工作方式是一致的。
Why Async mode is taking longer?
你的例子的工作方式也许最好用一个寓言来说明 - 请耐心等待:
假设您邀请您的 friend 参与一项实验。您希望他尽可能快地浏览一本书并用笔在每一页上做记号。有两轮具有不同的设置,您将为每一轮计时,然后比较哪一轮更快:
打开书的第一页,做记号,然后翻页,在接下来的几页上做记号。纯顺序处理。
分块处理这本书。为此,他应该逐页浏览这本书。那就是他应该首先列出页码作为起点,比如 1、10、20、30、40 等。然后对于每个 block ,他应该合上书,在起点页面上打开它,在下一个起点出现之前处理所有页面,关闭这本书,然后从头开始阅读下一部分。
哪种方法会更快?
Am I doing something wrong?
您认为这两种方法都花费了太长时间。您真正想要做的是让多个 人(进程)并行 进行标记。现在,对于一本书(就像一个文件)来说,这很困难,因为在任何时候只有一个人(过程)可以访问这本书(文件)。如果处理顺序无关紧要并且应该并行运行的是标记本身 - 而不是访问 - 仍然可以完成。所以新的方法是这样的:
这种方法肯定会加快整个过程。也许令人惊讶的是,虽然加速将小于 10 倍,因为第 1 步需要一些时间,而且只有一个人可以做到。那叫Amdahl's law [维基百科]:
从本质上讲,这意味着任何进程的(理论上的)加速只能与并行处理部分 p 相对于部分顺序处理时间的速度降低一样快( p/s)。
直观上,加速只能来自并行处理的任务部分,所有顺序部分不受影响并且花费相同的时间,无论 p 是否被处理并行与否。
也就是说,在我们的示例中,显然加速只能来自步骤 2(多人并行标记页面),因为步骤 1(撕毁书)显然是连续的。
develop an application which should be able to process huge CSV files
解决方法如下:
像这样:
def process(rows):
# do all the processing
...
return result
if __name__ == '__main__':
pool = mp.Pool(N) # N > 1
chunks = get_chunks(...)
for rows in chunks:
result += pool.apply_async(process, rows)
pool.close()
pool.join()
我没有在这里定义 get_chunks
,因为有几种记录的方法可以做到这一点,例如here或 here .
结论
根据每个文件所需的处理类型,顺序处理任何一个文件的方法很可能是最快的方法,原因很简单,因为处理部分不会从并行完成中获益太多。由于例如,您可能仍会逐 block 处理它。内存限制。如果是这种情况,您可能不需要多处理。
如果您有可以并行处理的多个文件,多处理是一种非常好的方法。它的工作方式与上面所示的相同,其中 block 不是行而是文件名。
关于python - 使用多处理池读取 CSV 比 CSV 阅读器花费的时间更长,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39524744/
对于 Metal ,如果对主纹理进行 mipmap 处理,是否还需要对多采样纹理进行 mipmap 处理?我阅读了苹果文档,但没有得到任何相关信息。 最佳答案 Mipmapping 适用于您将从中
我正在使用的代码在后端 Groovy 代码中具有呈现 GSP(Groovy 服务器页面)的 Controller 。对于前端,我们使用 React-router v4 来处理路由。我遇到的问题是,通过
我们正在 build 一个巨大的网站。我们正在考虑是在服务器端(ASP .Net)还是在客户端进行 HTML 处理。 例如,我们有 HTML 文件,其作用类似于用于生成选项卡的模板。服务器端获取 HT
我正在尝试将图像加载到 void setup() 中的数组中,但是当我这样做时出现此错误:“类型不匹配,'processing .core.PImage' does not匹配“processing.
我正在尝试使用其私有(private)应用程序更新 Shopify 上的客户标签。我用 postman 尝试过,一切正常,但通过 AJAX,它带我成功回调而不是错误,但成功后我得到了身份验证链接,而不
如何更改我的 Processing appIconTest.exe 导出的默认图标在窗口中的应用程序? 默认一个: 最佳答案 经过一些研究,我能找到的最简单的解决方案是: 进入 ...\process
我在 Processing 中做了一个简单的小游戏,但需要一些帮助。我有一个 mp3,想将它添加到我的应用程序中,以便在后台循环运行。 这可能吗?非常感谢。 最佳答案 您可以使用声音库。处理已经自带
我有几个这样创建的按钮: 在 setup() PImage[] imgs1 = {loadImage("AREA1_1.png"),loadImage("AREA1_2.png"),loadImage
我正在尝试使用 Processing 创建一个多人游戏,但无法弄清楚如何将屏幕分成两个以显示玩家的不同情况? 就像在 c# 中一样,我们有Viewport leftViewport,rightView
我一直在尝试使用 Moore 邻域在处理过程中创建元胞自动机,到目前为止非常成功。我已经设法使基本系统正常工作,现在我希望通过添加不同的功能来使用它。现在,我检查细胞是否存活。如果是,我使用 fill
有没有办法用 JavaScript 代码检查资源使用情况?我可以检查脚本的 RAM 使用情况和 CPU 使用情况吗? 由于做某事有多种方法,我可能会使用不同的方法编写代码,并将其保存为两个不同的文件,
我想弄清楚如何处理这样的列表: [ [[4,6,7], [1,2,4,6]] , [[10,4,2,4], [1]] ] 这是一个整数列表的列表 我希望我的函数将此列表作为输入并返回列表中没有重复的整
有没有办法在不需要时处理 MethodChannel/EventChannel ?我问是因为我想为对象创建多个方法/事件 channel 。 例子: class Call { ... fields
我有一个关于在 Python3 中处理 ConnectionResetError 的问题。这通常发生在我使用 urllib.request.Request 函数时。我想知道如果我们遇到这样的错误是否可
我一直在努力解决这个问题几个小时,但无济于事。代码很简单,一个弹跳球(粒子)。将粒子的速度初始化为 (0, 0) 将使其保持上下弹跳。将粒子的初始化速度更改为 (0, 0.01) 或任何十进制浮点数都
我把自己弄得一团糟。 我想在我的系统中添加 python3.6 所以我决定在我的 Ubuntu 19.10 中卸载现有的。但是现在每次我想安装一些东西我都会得到这样的错误: dpkg: error w
我正在努力解决 Rpart 包中的 NA 功能。我得到了以下数据框(下面的代码) Outcome VarA VarB 1 1 1 0 2 1 1 1
我将 Java 与 JSF 一起使用,这是 Glassfish 3 容器。 在我的 Web 应用程序中,我试图实现一个文件(图像)管理系统。 我有一个 config.properties我从中读取上传
所以我一直在Processing工作几个星期以来,虽然我没有编程经验,但我已经转向更复杂的项目。我正在编写一个进化模拟器,它会产生具有随机属性的生物。 最终,我将添加复制,但现在这些生物只是在屏幕上漂
有人知道 Delphi 2009 对“with”的处理有什么不同吗? 我昨天解决了一个问题,只是将“with”解构为完整引用,如“with Datamodule、Dataset、MainForm”。
我是一名优秀的程序员,十分优秀!