gpt4 book ai didi

MacOS 上的 R 错误 : vector memory exhausted (limit reached? )

转载 作者:行者123 更新时间:2023-12-01 17:55:34 32 4
gpt4 key购买 nike

我正在尝试运行 R 脚本(特别是,我正在使用 Bioconductor 包 Slingshot 中的“getLineages”函数。

我想知道为什么当我使用此函数时会出现错误“向量内存耗尽(已达到限制?)”,因为与此函数中的其他函数相比,它似乎不是最占用内存的函数包(包含我正在分析的数据)。

我确实知道 Stackoverflow 上还有其他类似的问题,但他们都建议切换到 64 位版本的 R。不过,我已经在使用这个版本了。目前这个问题似乎没有其他答案,我想知道是否有人知道?

数据大小只有~120mb,远小于我电脑的 8GB RAM。

R 64 bit version

最佳答案

对于那些使用 Rstudio 的用户,我发现设置 Sys.setenv('R_MAX_VSIZE'=32000000000)(正如多个 StackOverflow 帖子中所建议的那样)仅适用于命令行,并且使用 Rstudio 时设置该参数并不能防止出现此错误:

错误:矢量内存耗尽(达到限制?)

经过更多阅读后,我发现 this线程,它澄清了 Rstudio 的问题,并确定了解决方案,如下所示:

第1步:打开终端,

第 2 步:

cd ~
touch .Renviron
open .Renviron

第3步:将以下内容保存为.Renviron的第一行:

R_MAX_VSIZE=100Gb 

第 4 步:关闭 RStudio 并重新打开

注意:此限制包括物理内存和虚拟内存;因此,在具有 16Gb 物理内存的计算机上设置 _MAX_VSIZE=16Gb 可能无法防止此错误。您可能需要使用此参数,具体取决于您机器的规范

关于MacOS 上的 R 错误 : vector memory exhausted (limit reached? ),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51295402/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com