gpt4 book ai didi

amazon-web-services - 使用同一S3存储桶的多个凭据进行Spark

转载 作者:行者123 更新时间:2023-12-02 20:24:58 26 4
gpt4 key购买 nike

我将Spark 2.1.1与Hadoop 2.7.3结合使用,并且在一个管道中使用来自不同S3位置的数据。

我正在使用s3a设置spark.sparkContext.hadoopConfiguration.set(“fs.s3a.access.key”, $KEY)凭据,并进行 secret 操作。

当我使用不同的S3存储桶时,效果很好,但是当我对同一存储桶使用不同的凭据(一个S3存储桶中的文件夹级别权限)时,仅处理第一对凭据。

当我尝试使用第二对文件访问文件时,似乎 Spark 配置未更新,并且由于调用S3时出现403错误而失败。

我要实现的是在同一批处理中使用不同的凭据处理来自同一S3存储桶的文件。

最佳答案

对此没有真正的支持。每个S3A连接器实例仅具有一组凭据,并且特定桶的第一个S3A文件系统实例通过其URI缓存在文件系统缓存中。下次查找该文件系统URI的实例时,将拾取具有其凭证的现有实例。

关于amazon-web-services - 使用同一S3存储桶的多个凭据进行Spark,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57400325/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com