gpt4 book ai didi

python - 使用 xarray 加入/合并多个 NetCDF 文件

转载 作者:太空狗 更新时间:2023-10-29 20:15:04 25 4
gpt4 key购买 nike

我有一个包含 2006-2100 年 NetCDF 文件的文件夹,以十年为单位(2011-2020、2021-2030 等)。

我想创建一个新的 NetCDF 文件,其中包含所有这些连接在一起的文件。到目前为止,我已经阅读了文件:

ds = xarray.open_dataset('Path/to/file/20062010.nc')
ds1 = xarray.open_dataset('Path/to/file/20112020.nc')
etc.

然后像这样合并这些:

dsmerged = xarray.merge([ds,ds1])

这行得通,但很笨重,必须有一种更简单的方法来自动执行此过程,因为我将对许多装满文件的不同文件夹执行此操作。有没有更有效的方法来做到这一点?

编辑:

尝试使用 glob 连接这些文件:

for filename in glob.glob('path/to/file/.*nc'):
dsmerged = xarray.merge([filename])

给出错误:

AttributeError: 'str' object has no attribute 'items'

这只是读取文件名的文本,而不是实际的文件本身,所以它不能合并它。如何打开,存储为变量,然后合并而不是一点一点地做?

最佳答案

如果您正在寻找一种干净的方法将所有数据集合并在一起,您可以使用某种形式的列表理解xarray.merge 函数来完成它。下面是一个例子:

ds = xarray.merge([xarray.open_dataset(f) for f in glob.glob('path/to/file/.*nc')])

针对您遇到的内存不足的问题,那可能是因为您的文件多于python进程可以处理的。最好的解决方法是使用 xarray.open_mfdataset 函数,它实际上使用引擎盖下的库 dask 将数据分成更小的 block 进行处理。这通常可以提高内存效率,并且通常可以让您将数据导入 python。使用此功能,您不需要for-loop;您可以将 "path/to/my/files/*.nc"格式的字符串 glob 传递给它。以下与之前提供的解决方案等效,但内存效率更高:

ds = xarray.open_mfdataset('path/to/file/*.nc')

我希望这证明是有用的。

关于python - 使用 xarray 加入/合并多个 NetCDF 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47226429/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com