gpt4 book ai didi

hadoop - 为什么 HDFS ACL max_entries 设置为 32?

转载 作者:可可西里 更新时间:2023-11-01 15:21:44 27 4
gpt4 key购买 nike

在 Hadoop HDFS 中,当您启用 ACL 时,我发现最大 ACL 条目设置为 32。我在这里获得了源代码,在 org/apache/hadoop/hdfs/server/namenode/AclTransformation.java 中:

private static final int MAX_ENTRIES = 32;

这样做的依据是什么?有什么考虑?我们可以将 32 更改为另一个更大的数字吗?我想重新配置它。

最佳答案

ACL 在 HDFS-4685 中实现- 在 HDFS 中实现 ACL。

据我所知,没有关于 32 限制的设计决策。但是,由于大多数 Hadoop 系统都在 Linux 上运行,并且此功能受到 Linux ACL 的启发,因此该值很可能是从 ext3 的限制中借用的如中所述 POSIX Access Control Lists on Linux作者:Andreas Grünbacher。

enter image description here

文章继续提到过多的 ACL 会产生问题,并且还显示了启用 ACL 后引入的性能差异(请参阅标题为“EA 和 ACL 性能”的部分)。

关于hadoop - 为什么 HDFS ACL max_entries 设置为 32?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52214397/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com