gpt4 book ai didi

hadoop - 级联 2.0.0 作业在 hadoop FileNotFoundException job.split 上失败

转载 作者:可可西里 更新时间:2023-11-01 15:37:09 26 4
gpt4 key购买 nike

当我在更大的数据集上运行我的作业时,许多映射器/缩减器失败导致整个作业崩溃。这是我在许多映射器上看到的错误:

java.io.FileNotFoundException: File does not exist: /mnt/var/lib/hadoop/tmp/mapred/staging/hadoop/.staging/job_201405050818_0001/job.split
at org.apache.hadoop.hdfs.DFSClient$DFSInputStream.openInfo(DFSClient.java:1933)
at org.apache.hadoop.hdfs.DFSClient$DFSInputStream.<init>(DFSClient.java:1924)
at org.apache.hadoop.hdfs.DFSClient.open(DFSClient.java:608)
at org.apache.hadoop.hdfs.DistributedFileSystem.open(DistributedFileSystem.java:154)
at org.apache.hadoop.fs.FileSystem.open(FileSystem.java:429)
at org.apache.hadoop.mapred.MapTask.getSplitDetails(MapTask.java:385)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:417)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:377)
at org.apache.hadoop.mapred.Child$4.run(Child.java:255)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1132)
at org.apache.hadoop.mapred.Child.main(Child.java:249)

有人能解决这个问题吗?我看到另一个人经历了和我一样的痛苦 ( here ),遗憾的是他没能及时得救。

最佳答案

经过几个小时的调试,我发现 hadoop 日志中没有任何有用的东西(和往常一样)。然后我尝试了以下更改:

  • 将集群大小增加到 10
  • 增加失败限制:
    1. mapred.map.max.attempts=20
    2. mapred.reduce.max.attempts=20
    3. mapred.max.tracker.failures=20
    4. mapred.max.map.failures.percent=20
    5. mapred.max.reduce.failures.percent=20

我随后能够在大量数据上运行我的级联作业。好像是级联引起的问题。

关于hadoop - 级联 2.0.0 作业在 hadoop FileNotFoundException job.split 上失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23469783/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com