gpt4 book ai didi

scala - 如何使用自定义 spark-defaults.conf 设置

转载 作者:行者123 更新时间:2023-12-04 18:04:11 25 4
gpt4 key购买 nike

我已将自定义值添加到 conf/spark-defaults.conf,但该值未被使用。

stephen@ubuntu:~/spark-1.2.2$ cat conf/spark-defaults.conf
spark.akka.frameSize 92345678

现在让我们运行我的程序 LBFGSRunner

sbt/sbt  '; project mllib; runMain org.apache.spark.mllib.optimization.LBFGSRunner spark://ubuntu:7077'

注意以下错误:未使用 conf 设置:

[error] Exception in thread "main" org.apache.spark.SparkException: 
Job aborted due to stage failure: Serialized task 0:0 was 26128706 bytes,
which exceeds max allowed: spark.akka.frameSize (10485760 bytes) -
reserved (204800 bytes). Consider increasing spark.akka.frameSize
or using broadcast variables for large values

最佳答案

注意:在 Linux Mint 中工作。

如果您在 spark-defaults.conf 中设置属性,只有当您使用 spark-submit 提交作业时,spark 才会采用这些设置。

文件:spark-defaults.conf

spark.driver.extraJavaOptions      -Dlog4j.configuration=file:log4j.properties -Dspark.yarn.app.container.log.dir=app-logs -Dlogfile.name=hello-spark
spark.jars.packages org.apache.spark:spark-sql-kafka-0-10_2.12:3.0.1,org.apache.spark:spark-avro_2.12:3.0.1

如果你想在开发模式下运行你的工作。

spark = SparkSession.builder \
.appName('Hello Spark') \
.master('local[3]') \
.config("spark.streaming.stopGracefullyOnShutdown", "true") \
.config("spark.jars.packages", "org.apache.spark:spark-sql-kafka-0-10_2.12:3.0.1") \
.getOrCreate()

关于scala - 如何使用自定义 spark-defaults.conf 设置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29975475/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com