gpt4 book ai didi

r - 每行的 data.table 函数太慢

转载 作者:行者123 更新时间:2023-12-04 10:45:26 24 4
gpt4 key购买 nike

我需要计算每行(6M+ 行)的加权平均值,但这需要很长时间。带有权重的列是一个字符字段,所以 weighted.mean 不能直接使用。

后台数据:

library(data.table)
library(stringr)
values <- c(1,2,3,4)
grp <- c("a", "a", "b", "b")
weights <- c("{10,0,0,0}", "{0,10,0,0}", "{10,10,0,0}", "{0,0,10,0}")
DF <- data.frame(cbind(grp, weights))
DT <- data.table(DF)

string.weighted.mean <- function(weights.x) {
tmp.1 <- na.omit(as.numeric(unlist(str_split(string=weights.x, pattern="[^0-9]+"))))
tmp.2 <- weighted.mean(x=values, w=tmp.1)
}

以下是如何使用 data.frames 完成(太慢):
DF$wm <- mapply(string.weighted.mean, DF$weights)

这可以完成工作,但速度太慢(小时):
DT[, wm:=mapply(string.weighted.mean, weights)]

如何改写最后一行以加快速度?

最佳答案

DT[, rowid := 1:nrow(DT)]
setkey(DT, rowid)
DT[, wm :={
weighted.mean(x=values, w=na.omit(as.numeric(unlist(str_split(string=weights, pattern="[^0-9]+")))))
}, by=rowid]

关于r - 每行的 data.table 函数太慢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14470869/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com