gpt4 book ai didi

hadoop - DistributedCache 无法访问存档

转载 作者:可可西里 更新时间:2023-11-01 16:18:21 24 4
gpt4 key购买 nike

我可以使用 DistributedCache 访问单个文件,但无法访问存档。在主要方法中,我将存档添加为

DistributedCache.addCacheArchive(new Path("/stocks.gz").toUri(), job.getConfiguration());

/stocks.gz 在 hdfs 中。在我使用的映射器中,

Path[] paths = DistributedCache.getLocalCacheArchives(context.getConfiguration());
File localFile = new File(paths[0].toString());

抛出异常

java.io.FileNotFoundException: /tmp/hadoop-user/mapred/local/taskTracker/distcache/-8696401910194823450_622739733_1347031628/localhost/stocks.gz (No such file or directory)

我期望 DistributedCache 解压缩/stocks.gz 并且映射器使用底层文件,但它抛出 FileNotFound 异常。

DistributedCache.addCacheFile 和 DistributedCache.getLocalCacheFiles 在传递单个文件时可以正常工作,但是传递存档不起作用。我在这里做错了什么?

最佳答案

你能不能试试给 stocks.gz 加上绝对路径。

DistributedCache.addCacheArchive(new Path("<Absolute Path To>/stocks.gz").toUri(), job.getConfiguration());

关于hadoop - DistributedCache 无法访问存档,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14842768/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com