gpt4 book ai didi

r - 错误 : vector memory exhausted (limit reached?) R 3.5.0 macOS

转载 作者:IT王子 更新时间:2023-10-28 23:29:49 57 4
gpt4 key购买 nike

我一直在处理一些包含基因表达数据的大文件,最近在升级到 R 3.5.0 后,我遇到了将这些数据加载到 R 中的问题。使用大约 8GB 内存(我的 mac 有 16GB RAM)后,如果我尝试读取另一个文件,我会收到以下错误:

Error: vector memory exhausted (limit reached?)

我发现之前的帖子 (Error: vector memory exhausted (limit reached?)) 建议我尝试将环境变量 R_MAX_VSIZE 设置为更高的值,因此我尝试了以下操作:

Sys.setenv(R_MAX_VSIZE = 16e9)

但是,我仍然遇到同样的错误。我没有正确设置环境变量吗?有什么我遗漏的吗?

session 信息:

R version 3.5.0 (2018-04-23)
Platform: x86_64-apple-darwin15.6.0 (64-bit)
Running under: macOS High Sierra 10.13.5

Matrix products: default
BLAS: /System/Library/Frameworks/Accelerate.framework/Versions/A/Frameworks/vecLib.framework/Versions/A/libBLAS.dylib
LAPACK: /Library/Frameworks/R.framework/Versions/3.5/Resources/lib/libRlapack.dylib

locale:[1] en_US.UTF-8/en_US.UTF-8/en_US.UTF-8/C/en_US.UTF-8/en_US.UTF-8

attached base packages:
[1] stats graphics grDevices utils datasets methods base

other attached packages: [1] data.table_1.11.4

loaded via a namespace (and not attached):
[1] compiler_3.5.0 tools_3.5.0

最佳答案

对于那些使用 Rstudio 的人,我发现设置 Sys.setenv('R_MAX_VSIZE'=32000000000) 仅适用于命令行,并且在使用 Rstudio 时设置该参数并不会阻止这种情况错误:

错误:向量内存耗尽(达到限制?)

在阅读了更多内容后,我发现了 this线程,它澄清了 Rstudio 的问题,并确定了解决方案,如下所示:

第一步:打开终端,

第 2 步:

cd ~
touch .Renviron
open .Renviron

第三步:将以下内容保存为.Renviron的第一行:

R_MAX_VSIZE=100Gb 

注意:此限制包括物理内存和虚拟内存;因此在具有 16Gb 物理内存的机器上设置 _MAX_VSIZE=16Gb 可能无法防止此错误。您可能必须使用此参数,具体取决于您机器的规范

关于r - 错误 : vector memory exhausted (limit reached?) R 3.5.0 macOS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51248293/

57 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com