gpt4 book ai didi

r - 如何对内存过大的 RData 文件进行子集化?

转载 作者:行者123 更新时间:2023-12-04 16:11:59 26 4
gpt4 key购买 nike

我有一个 RData 文件,它变得太大,无法使用 load() 加载到我的计算机上。命令。它包含一个包含约 300 万个观测值和约 100 个变量的数据框。

我想要

  • 加载文件,也许使用一些 bigdata 或 ff 包(但我不知道它们是如何工作的)
  • 去掉一些变量以减小文件大小
  • 将其另存为带有常规数据框的 Rdata 文件(不是一些奇怪的“大数据”类型对象)
  • 使用 load()加载压缩文件并恢复常规 R 操作

  • 我应该怎么做?

    最佳答案

    上周 Jared Lander(《R for Everyone》一书的作者)帮助在 bigboards.io 十六进制上创建了 R 色调。我们在其上安装了 RStudio Server,并使用了十六进制的整个存储/处理功能。 Ceph 用于在节点上分发数据

    无论如何,这感觉就像是您问题的解决方案。

    关于r - 如何对内存过大的 RData 文件进行子集化?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24149393/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com