gpt4 book ai didi

file - 在matlab中将数据 append 到hdf5中的同一数据集

转载 作者:太空宇宙 更新时间:2023-11-03 20:30:39 26 4
gpt4 key购买 nike

我必须将所有庞大的数据放在一起,放入 hdf5 中的单个数据集中。现在,问题是,如果您尝试:

>> hdf5write('hd', '/dataset1', [1;2;3])
>> hdf5write('hd', '/dataset1', [4;5;6], 'WriteMode', 'append')
??? Error using ==> hdf5writec
writeH5Dset: Dataset names must be unique when appending data.

如您所见,当您尝试将数据 append 到同一数据集时,hdf5write 会报错。我环顾四周,发现一种可能的解决方法是先从数据集中获取数据,然后在 matlab 环境中连接数据。当然,这对于小数据不是问题。对于这种情况,我们谈论的是千兆字节的数据,而 Matlab 开始大喊内存不足。

因此,在这种情况下我有哪些可用选项?

注意:我们的 matlab 版本中没有 h5write 函数。

最佳答案

我认为“append ”模式是将数据集添加到现有文件。

hdf5write 似乎不支持 append 到现有数据集。如果没有更新的 h5write 函数,最好的办法是使用 H5* 包函数公开的低级 HDF5 库函数编写一个小型实用程序。

为了帮助您入门,doc页面有一个关于如何 append 到数据集的示例。

关于file - 在matlab中将数据 append 到hdf5中的同一数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15331213/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com