gpt4 book ai didi

python - 在 HDF5 C++ api 中使用 GZIP 压缩时,是否默认启用自动分块?

转载 作者:塔克拉玛干 更新时间:2023-11-03 07:13:01 25 4
gpt4 key购买 nike

我正在使用 C++ HDF api 编写一个 HDF5 文件,并与 H5py Python 库进行一些比较。

在 H5py Python 库中 autochunking当使用 GZIP 或 LZF 等压缩算法时,默认应用。

同样的条件是否适用于 HDF5 C++ api?如果是这样,我如何证明在对数据集应用压缩算法(例如 GZIP)时自动创建了 block 。

最佳答案

根据 https://www.hdfgroup.org/HDF5/faq/compression.html :

To apply a compression filter to a dataset it must be created with a chunked dataset storage layout.

而且你必须手动完成:

1. Create a dataset creation property list and modify it to enable chunking and compression.
2. Create the dataset.

关于python - 在 HDF5 C++ api 中使用 GZIP 压缩时,是否默认启用自动分块?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37912496/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com