gpt4 book ai didi

algorithm - 图上的 Hadoop 作业结构

转载 作者:可可西里 更新时间:2023-11-01 14:23:57 25 4
gpt4 key购买 nike

我有一个算法必须在可以并行化的图形上执行大量计算,虽然我可以使用 Hadoop 将这些计算分配给映射器,然后在缩减器上恢复结果,但我正在努力并开始认为也许我正在使用 Hadoop 来做一些我不应该使用 Hadoop 的事情(你知道,当你有一把锤子时,一切看起来都像钉子)。

您可以在 https://gist.github.com/brenes/79d980708aae463079b8 查看该算法的 ruby​​ 版本但是,在某种程度上,它是这样的:

  • 我们有一个图表。
  • 我们得到一个配置(节点和边的列表)来帮助我们控制整个图。
  • 我们摆脱了这种配置的一个(随机)节点,并获得了一系列替代配置。然后我们得到这些配置之一(随机)作为选择的配置。
  • 对于每个节点,我们计算它有多少个选择的配置。

第三步必须重复很多次(与图中的节点数成正比),所以我认为它非常适合 Map 步骤。然后,计数任务将是一个 Reducer 步骤(事实上,LongSumReducer 类非常适合)。

问题出在前两个步骤。我想我可以创建图形并在自定义 InputFormat 类上获取配置,这样我的自定义 Reader 就可以向每个映射器发送一个随机节点。

这样,输入并不是真正基于通过 HDFS 共享的文件,因为读取图形(这将是我的输入文件)仅由主节点执行,映射器将接收所有内容。

当 JobSubmitter 尝试写入拆分时,问题就来了,因为它们并不是真正的文件拆分,而且我遇到了一些错误,因为(我认为)它试图创建对我的结构没有意义的拆分文件。

为了检查我是否可以创建图表等,我创建了一个简化版本的算法:

  • 我们有一个图表。 (输入格式和阅读器)
  • 我们得到图的每条边。 (映射器)
  • 对于每个节点,我们计算它有多少条边(Reducer)

您可以在 https://github.com/wild-fire/controllability-samping-algorithm/tree/stack-overflow-30151672 查看这个简化版本

问题是,当我运行作业时(有两个参数,图形文件的路径和输出文件夹的路径)我得到一个错误:

Exception in thread "main" java.lang.NullPointerException
at org.apache.hadoop.mapreduce.split.JobSplitWriter.writeNewSplits(JobSplitWriter.java:132)
at org.apache.hadoop.mapreduce.split.JobSplitWriter.createSplitFiles(JobSplitWriter.java:79)
at org.apache.hadoop.mapreduce.JobSubmitter.writeNewSplits(JobSubmitter.java:603)
at org.apache.hadoop.mapreduce.JobSubmitter.writeSplits(JobSubmitter.java:614)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:492)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1296)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1293)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1293)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1314)
at jobs.SamplingAlgorithm.main(SamplingAlgorithm.java:29)

我一直在搜索非文件输入拆分,但我唯一找到的是解释文件输入拆分的教程,所以我开始怀疑,我可以用 Hadoop 做到这一点吗?还是我想用锤子拧螺丝?

谢谢!

编辑:在我继续努力的过程中,我创建(并链接)了一个标签,这样您就可以在我发布问题时看到代码

最佳答案

虽然我没有合适的方法来做到这一点,但我找到了解决方法。

我的解决方案是将第一步移到 Hadoop 流程之外,并在 Hadoop 作业开始之前在我的作业类上执行它们。

流程是:

  • 解析图表。
  • 获取第一个配置。
  • 将此配置保存在文件中。
  • 获取一个随机的节点列表并将它们保存到另一个文件中。
  • 将此文件提供给常规 Hadoop 作业。

每个映射器然后接收一行临时随机节点文件(一个随机节点)并解析图形文件和配置文件,以便执行所需的操作。

你可以看看最后一版的代码:https://github.com/wild-fire/controllability-samping-algorithm/tree/master特别是工作类:https://github.com/wild-fire/controllability-samping-algorithm/blob/master/src/jobs/SamplingAlgorithm.java .

由于我没有使用 Hadoop 的经验,所以我不确定这是正确的方法还是只是一个糟糕的解决方法,但我认为这个答案可以帮助其他人解决同样的问题。

关于algorithm - 图上的 Hadoop 作业结构,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30151672/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com