gpt4 book ai didi

uproot - 如何将大量数据读取为lazyarrays

转载 作者:行者123 更新时间:2023-12-04 10:59:26 24 4
gpt4 key购买 nike

我正在尝试将大量数据作为惰性数组读取,执行以下操作:

import uproot
import numpy as np

file_path = "~/data.root"
data = uproot.lazyarrays(file_path, "E")
hits = data['hits']
>>> <ChunkedArray [176 125 318 ... 76 85 51] at 0x7fb8612a8390>
np.array(hits)
>>> array([176, 125, 318, ..., 76, 85, 51], dtype=int32)


因此,如您所见,我们可以毫无问题地将“命中”数据作为 lazzyarray 和数组读取。但是,当我为不同的分支尝试相同的步骤时,我得到一个 ValueError。这是我如何进行:

data['hits.dom_id']
>>> ValueError: value too large

但是,当我使用 uproot.array() 访问 'hits.dom_id' 时,我得到了我的数据。这是我如何进行:

data2 = uproot.open(file_path)['E']['Evt']['hits']
data2['hits.dom_id'].array()
>>> <JaggedArray [[806451572 806451572 806451572 ... 809544061 809544061 809544061] [806451572 806451572 806451572 ... 809524432 809526097 809544061] [806451572 806451572 806451572 ... 809544061 809544061 809544061] ... [806451572 806451572 806451572 ... 809006037 809524432 809544061] [806451572 806451572 806451572 ... 809503416 809503416 809544058] [806451572 806465101 806465101 ... 809544058 809544058 809544061]] at 0x7fb886cbbbd0>

我注意到了,但也许这只是巧合,每当我的数据采用 JaggesArray 格式时,uproot.lazyarrays() 都会引发相同的 ValueError。

我可能在这里做错了什么,你能帮忙吗?

注意:我认为这不是 RAM 问题。我尝试使用缓存大小,使用比我的数据集大的缓存大小,但 uproot.lazyarrays() 仍然引发了 ValueError。

谢谢!

最佳答案

ValueError: value too largecachetools 的错误信息当它无法将一个数组放入缓存时发出。人们经常遇到这个问题,我想我需要捕获它并用更多信息重新发送它,或者甚至扩大缓存以使其适合。 (这是一个糟糕的主意吗?我需要为缓存找到一个好的默认策略。)

查看最近的 GitHub 问题——惰性数组确实有一个隐含的 basketcache (这与 cache 不同)。您可能需要提供明确的 basketcache如果您的任何篮子大于 1 MB(默认限制)。

关于uproot - 如何将大量数据读取为lazyarrays,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58924485/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com