gpt4 book ai didi

hadoop - 如何覆盖Hadoop中的输出目录?

转载 作者:行者123 更新时间:2023-12-02 20:02:03 27 4
gpt4 key购买 nike

我正在读取json文件,并且希望修改json文件中的某些更改。修改后,我想覆盖相同的json文件。当我这样做时,MapReduce会引发异常“FileAlreadyExists”。请给我一个解决方案,以覆盖同一文件。我不希望删除该文件并创建一个新文件。我只想覆盖。

最佳答案

HDFS不允许在现有文件中写入。您必须先删除文件,然后重新写入。 HDFS不支持对文件的就地更新。 HDFS旨在提供对现有数据的高读取率。因此,您期望的功能在HDFS中不可用。

关于hadoop - 如何覆盖Hadoop中的输出目录?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32450003/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com