gpt4 book ai didi

r - 我可以在 R 中缓存数据加载吗?

转载 作者:行者123 更新时间:2023-12-04 00:44:18 31 4
gpt4 key购买 nike

我正在处理 R必须加载数据的脚本(显然)。数据加载需要花费很多精力(500MB),我想知道是否可以避免每次重新运行脚本时都必须执行加载步骤,而我在开发过程中做了很多。

我很感激我可以在交互式 R 中完成所有事情 session ,但是在 R 上开发多行函数就不太方便了。迅速的。

例子:

#!/usr/bin/Rscript
d <- read.csv("large.csv", header=T) # 500 MB ~ 15 seconds
head(d)

如果可能,我如何修改脚本,以便在后续执行时, d已经可用了吗?有没有类似 cache=T 的东西声明如 R Markdown 代码块?

最佳答案

包‘R.cache’R.cache

    start_year <- 2000
end_year <- 2013
brics_countries <- c("BR","RU", "IN", "CN", "ZA")
indics <- c("NY.GDP.PCAP.CD", "TX.VAL.TECH.CD", "SP.POP.TOTL", "IP.JRN.ARTC.SC",
"GB.XPD.RSDV.GD.ZS", "BX.GSR.CCIS.ZS", "BX.GSR.ROYL.CD", "BM.GSR.ROYL.CD")

key <- list(brics_countries, indics, start_year, end_year)
brics_data <- loadCache(key)
if (is.null(brics_data)) {
brics_data <- WDI(country=brics_countries, indicator=indics,
start=start_year, end=end_year, extra=FALSE, cache=NULL)
saveCache(brics_data, key=key, comment="brics_data")
}

关于r - 我可以在 R 中缓存数据加载吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25425280/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com