gpt4 book ai didi

hadoop - DistributedCache 是否会在每次作业后删除缓存的文件?

转载 作者:可可西里 更新时间:2023-11-01 14:34:08 24 4
gpt4 key购买 nike

DistributedCache 的文档状态:

Its efficiency stems from the fact that the files are only copied once per job and the ability to cache archives which are un-archived on the slaves.

当它说它可以“缓存从服务器上未归档的文件”时,它是什么意思?每次作业后是否删除缓存文件?我希望能够在不同的数据集上运行同一个作业数百次,而不会增加在每个作业之前重新分发 DistributedCache 文件的开销。这可能吗?

最佳答案

Hadoop 保留一个关于有多少任务正在使用 DistributedCache 中的文件的引用计数。如果计数降为 0,则将文件标记为删除。因此,在作业结束时,DistributedCache 中的文件会被清理,否则它们会在作业间继续堆积在节点上。

关于hadoop - DistributedCache 是否会在每次作业后删除缓存的文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21588814/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com