gpt4 book ai didi

hadoop - 配置单元外部表需要写访问权限

转载 作者:可可西里 更新时间:2023-11-01 14:16:46 25 4
gpt4 key购买 nike

我正在尝试将存储在 HDFS(文本文件)上的数据集加载到配置单元中进行分析。我正在使用创建外部表如下:

CREATE EXTERNAL table myTable(field1 STRING...) 
ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
STORED AS TEXTFILE
LOCATION '/user/myusername/datasetlocation';

这工作正常,但它需要对 hdfs 位置的写入权限。这是为什么?

一般来说,加载我没有写入权限的文本数据的正确方法是什么?是否有“只读”外部表类型?

编辑:我注意到了 this issue关于这个问题的 hive 。好像还没有解决。

最佳答案

部分回答我自己的问题:

确实目前好像没有被hive解决。但这里有一个有趣的事实:hive 不需要对文件本身的写访问权限,而只需要对文件夹的写访问权限。例如,您可以拥有一个权限为 777 的文件夹,但其中的文件(由 hive 访问)可以保持只读状态,例如644

关于hadoop - 配置单元外部表需要写访问权限,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41659067/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com