gpt4 book ai didi

java - Hadoop:从 o.a.h.mapred 实现接口(interface),还是从 o.a.h.mapreduce 扩展类?

转载 作者:可可西里 更新时间:2023-11-01 15:19:05 25 4
gpt4 key购买 nike

我正在学习 Hadoop (0.20.205),我有点困惑。推荐哪种方式:

A) 从 org.apache.hadoop.mapred 实现 MapperReducer 接口(interface),并使用 JobConf< 配置作业,如 PiEstimator 示例中所示。

B) 从 org.apache.hadoop.mapreduce 扩展 MapperReducer 类,并使用 Job< 配置作业,如 WordCount 示例中所示。

哪一个更有可能在未来被淘汰?

Hbase (0.90.4) 似乎更喜欢第二种方式,因为 o.a.h.h.mapred 中的 TableOutputFormat 已被弃用,而 中的 TableOutFormat >o.a.h.h.mapreduce 不是。另一方面,IdentityMapperIdentityReducer 等有用的类似乎只存在于 o.a.h.mapred 中。总的来说,我倾向于版本 B。

您会选择哪种方式,为什么?提前致谢。

最佳答案

o.a.h.mapred 是旧的 MR API,o.a.h.mapreduce 是新的 API。在功能方面没有太大区别,但新的 API 更易于维护。请查看我在 StackOverflow 中的回复 here .

关于java - Hadoop:从 o.a.h.mapred 实现接口(interface),还是从 o.a.h.mapreduce 扩展类?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8011789/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com