gpt4 book ai didi

apache-spark - 如何覆盖使用 SparkContext.addFile 添加的文件?

转载 作者:行者123 更新时间:2023-12-02 20:33:57 25 4
gpt4 key购买 nike

我正在尝试使用 sc.addFile 将文件添加到所有工作节点。但是,我发现它无法覆盖同一个文件。有什么方法可以通过 sc.addFile 覆盖文件吗?

最佳答案

配置为spark.files.overwrite :

Whether to overwrite files added through SparkContext.addFile() when the target file exists and its contents do not match those of the source.

所以只需在您的配置中将其设置为 true

spark.files.overwrite   true

或 session

spark = SparkSession.builder.conf("spark.files.overwrite", "true").getOrCreate()
sc = spark.sparkContext

SparkConf

conf = SparkConf().set("spark.files.overwrite", "true")
sc = SparkContext(conf=conf)

关于apache-spark - 如何覆盖使用 SparkContext.addFile 添加的文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47706608/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com