gpt4 book ai didi

hadoop - 具有很大标准输出的Hadoop流

转载 作者:行者123 更新时间:2023-12-02 20:14:25 25 4
gpt4 key购买 nike

我有两个用于Hadoop流传输的程序。

  mapper (produces <k, v> pair)
reducer

当然, <k, v>对会发出到 stdout

我的问题是

如果 v中的 <k, v>非常大,是否可以有效地在hadoop上运行?

我猜想mapper发出的 v会大于或等于1G(有时会大于4G)。

最佳答案

我认为这样的Value大小会引起问题,因为在内存中操作它们是有问题的。如果确实需要如此大的值,则可以将它们放入HDFS中,并使V成为文件的名称。在这种情况下,您应该考虑的问题是该方法不再起作用-您有副作用,例如,来自失败的映射器的副作用。

关于hadoop - 具有很大标准输出的Hadoop流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5038473/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com