gpt4 book ai didi

hadoop - 是否可以在 SPARK 中覆盖 Hadoop 配置?

转载 作者:可可西里 更新时间:2023-11-01 16:30:54 25 4
gpt4 key购买 nike

是否可以在 SPARK 中覆盖 Hadoop 配置,以便自动解析 NameNode IP?目前,由于现有的 Hadoop 配置(我无法修改,因为它可能会影响我的常规 HDFS),我得到了 UnknownHostException。

最佳答案

任何以 spark.hadoop. 前缀传入的内容都将被视为 Hadoop 配置覆盖。

val conf = new SparkConf
conf.set("spark.hadoop.HADOOPCONFKEY", "VALUE")
val sc = new SparkContext(conf)

或者您传递到 hadoopRDD conf 中的任何内容都充当 hadoop 配置值。

关于hadoop - 是否可以在 SPARK 中覆盖 Hadoop 配置?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32845616/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com