- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我应该使用 python 处理一个巨大的 bz2 文件(5+ GB)。使用我的实际代码,我总是遇到内存错误。在某个地方,我读到可以使用 sqlite3 来处理这个问题。这是正确的吗?如果是,我应该如何调整我的代码?(我使用 sqlite3 的经验不是很丰富...)
这是我的代码的实际开头:
import csv, bz2
names = ('ID', 'FORM')
filename = "huge-file.bz2"
with open(filename) as f:
f = bz2.BZ2File(f, 'rb')
reader = csv.DictReader(f, fieldnames=names, delimiter='\t')
tokens = [sentence for sentence in reader]
在此之后,我需要检查“ token ”。如果我能处理这个巨大的 bz2 文件,那就太好了 - 所以,非常欢迎任何帮助!非常感谢您的任何建议!
最佳答案
文件很大,读取所有文件将不起作用,因为您的进程将耗尽内存。
解决方案是以 block /行的形式读取文件,并在读取下一个 block 之前对其进行处理。
列表理解线
tokens = [sentence for sentence in reader]
正在将整个文件读取到 token
,这可能会导致进程内存不足。
csv.DictReader
可以逐行读取CSV记录,这意味着每次迭代时,都会将1行数据加载到内存中。
像这样:
with open(filename) as f:
f = bz2.BZ2File(f, 'rb')
reader = csv.DictReader(f, fieldnames=names, delimiter='\t')
for sentence in reader:
# do something with sentence (process/aggregate/store/etc.)
pass
请注意,如果在添加的循环中,再次将sentence
中的数据存储在另一个变量(如tokens
)中,仍然可能会消耗大量内存,具体取决于关于数据有多大。因此,最好将它们聚合起来,或者使用其他类型的存储来存储该数据。
关于在您的流程中使用之前的一些行(如评论中所述),您可以执行以下操作:
然后您可以将前一行存储在另一个变量中,该变量在每次迭代时都会被替换。
或者,如果您需要多行(返回),那么您可以获得最后 n
行的列表。
使用 collections.deque使用 maxlen
来跟踪最后 n
行。从文件顶部的 collections
标准模块导入 deque
。
from collections import deque
# rest of the code ...
last_sentences = deque(maxlen=5) # keep the previous lines as we need for processing new lines
for sentence in reader:
# process the sentence
last_sentences.append(sentence)
我建议使用上述解决方案,但您也可以使用列表自己实现它,并手动跟踪其大小。
在循环之前定义一个空列表,在循环结束时检查列表的长度是否大于您需要的长度,从列表中删除较旧的项目,然后追加当前行。
last_sentences = [] # keep the previous lines as we need for processing new lines
for sentence in reader:
# process the sentence
if len(last_sentences) > 5: # make sure we won't keep all the previous sentences
last_sentences = last_sentences[-5:]
last_sentences.append(sentence)
关于python - 处理巨大的 bz2 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44586747/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!