gpt4 book ai didi

bash - 在 NCO 中附加/组合数千 (42000) 个 netCDF 文件的更快方法

转载 作者:行者123 更新时间:2023-12-04 18:29:45 26 4
gpt4 key购买 nike

我似乎无法正确组合数千个 netCDF 文件(42000+)(对于这个特定的文件夹/变量,大小为 3gb)。我要组合的主要变量具有 (6, 127, 118) 的结构,即 (time,lat,lon)
由于文件数太长,我将每个文件 1 逐 1 附加。

我努力了:

for i in input_source/**/**/*.nc; do ncrcat -A -h append_output.nc $i append_output.nc ; done

但是这种方法似乎真的很慢(kb/s 的顺序,并且随着附加更多文件似乎变得越来越慢)并且还发出警告:
ncrcat: WARNING Intra-file non-monotonicity. Record coordinate "forecast_period" does not monotonically increase between (input file file1.nc record indices: 17, 18) (output file file1.nc record indices 17, 18) record coordinate values 6.000000, 1.000000

这基本上只是将变量“forecast_period”增加了 1-6 n 倍。 n = 42000 个文件。即 [1,2,3,4,5,6,1,2,3,4,5,6......n]
尽管有这个警告,我仍然可以打开文件并且 ncrcat 做它应该做的事情,它只是很慢,至少对于这个特定的方法

我也尝试过添加选项:
--no_tmp_fl

但这会产生错误:
ERROR: nco__open() unable to open file "append_output.nc"

下面附上完整的错误

如果有帮助,我在 Windows 10 中使用 wsl 和 ubuntu。
我是 bash 的新手,任何评论都将不胜感激。

enter image description here

最佳答案

这些命令中的任何一个都应该起作用:

ncrcat --no_tmp_fl -h *.nc 

或者
ls input_source/**/**/*.nc | ncrcat --no_tmp_fl -h append_output.nc

您的原始命令很慢,因为您打开和关闭输出文件 N 次。这些命令将其打开一次,将其填满,然后将其关闭。

关于bash - 在 NCO 中附加/组合数千 (42000) 个 netCDF 文件的更快方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57446249/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com