gpt4 book ai didi

linux - 如何加载这么大的 hadoop 文件?

转载 作者:可可西里 更新时间:2023-11-01 15:29:37 27 4
gpt4 key购买 nike

如何加载这么大的hadoop文件?

我需要将一些文件从 hadoop 加载到本地 USB。

一个目录下有个奇怪的文件,只有一个名字“-”,而且大小超过45G。我首先使用hadoop fs -get 将数据获取到本地linux VM,然后使用WinSCP 将数据加载到本地USB。但是我本地Linux VM的容量只有19G。如何做到这一点?

我正在考虑使用 hadoop 命令将 45G 文件拆分为更小的文件。但是我还没有找到这样的命令。

最佳答案

您可以尝试以下方法:

  1. 使用hadoop fs -get 命令并将所有数据保存到虚拟机的磁盘中。
  2. 使用 split -b 10240K hadoopfile splitflie ,以每 10GB 为单位拆分文件。
  3. 将每个零件文件移动到您的 USB。
  4. 在您的目的地使用 cat splitfile* > hadoopfile 将其合并为一个文件。

关于linux - 如何加载这么大的 hadoop 文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36653171/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com