gpt4 book ai didi

hadoop - Apache Nutch 2.3.1,增加Reducer的内存

转载 作者:行者123 更新时间:2023-12-02 20:28:26 26 4
gpt4 key购买 nike

如果Hadoop和Hbase一起用于Nutch 2.3.1,我已经设置了一个小型群集。 hadoop版本是2.7.7,Hbase是0.98。我已经自定义了hadoop作业,现在我必须在驱动程序类中为reducer任务设置内存。我已经知道,在简单的hadoop MR作业中,可以使用JobConf方法setMemoryForReducer。但是Nutch没有任何可用的选项。就我而言,目前,通过mapred-site.xml(Hadoop配置)将reducer内存设置为4 GB。但是对于Nutch,我必须加倍。

是否可以通过驱动程序类或nutch-site.xml不更改hadoop conf文件

最佳答案

终于,我找到了解决方案。 NutchJob实现了目标。以下是代码段

NutchJob job = NutchJob.getInstance(getConf(), "rankDomain-update");

int reducer_mem = 8192;
String memory = "-Xmx" + (int) (reducer_mem * 0.8)+ "m";
job.getConfiguration().setInt("mapreduce.reduce.memory.mb", reducer_mem);
job.getConfiguration().set("mapreduce.reduce.java.opts", memory );
// rest of code below

关于hadoop - Apache Nutch 2.3.1,增加Reducer的内存,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54643356/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com