gpt4 book ai didi

r - 有没有办法让 "findpeaks"函数在大型数据集上运行得更快?

转载 作者:行者123 更新时间:2023-12-04 09:43:41 24 4
gpt4 key购买 nike

我有一个名为“endata”的大型数据集 - 590 万个数据点。这表示超过 90 天的数据。数据集是单个向量。前五个数据点如下所示:

0.0171365458527622 0.0174577280551263 0.0177808003184100 0.0181056613918160 0.0184322165779018 0.0187603772480992

我想使用 pracma 包中的“findpeaks”功能。这是我想使用的一行代码:

y <- data.frame(findpeaks(-endata,minpeakdistance=10, nups=1, ndowns=1, npeaks=Inf, minpeakheight = -0.5, sortstr=FALSE))

该函数需要很长时间(小时)才能运行。有什么办法可以让函数运行得更快?我已经尝试过按天拆分数据集,但这使得输出难以管理。

最佳答案

您可以在 R 中使用并行计算来加快速度。变化 cores=以适合您的机器。

library(doMC)
registerDoMC(cores = 5)

y <- data.frame(findpeaks(-endata,minpeakdistance=10, nups=1, ndowns=1,
npeaks=Inf, minpeakheight = -0.5, sortstr=FALSE))

registerDoSeq()

关于r - 有没有办法让 "findpeaks"函数在大型数据集上运行得更快?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62218798/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com