gpt4 book ai didi

scala - 如何在 ScalaTest 测试中正确使用 Spark?

转载 作者:行者123 更新时间:2023-12-01 03:37:44 25 4
gpt4 key购买 nike

我有多个 ScalaTest 类使用 BeforeAndAfterAll构建一个 SparkContext然后像这样停止它:

class MyTest extends FlatSpec with Matchers with BeforeAndAfterAll {

private var sc: SparkContext = null

override protected def beforeAll(): Unit = {
sc = ... // Create SparkContext
}

override protected def afterAll(): Unit = {
sc.stop()
}

// my tests follow
}

这些测试在从 IntelliJ IDEA 启动时运行良好,但在运行时 sbt test , 我得到 WARN SparkContext: Another SparkContext is being constructed (or threw an exception in its constructor). This may indicate an error, since only one SparkContext may be running in this JVM (see SPARK-2243). ,然后是一堆其他的异常(exception),我想这些异常(exception)都与这个问题有关。

如何正确使用Spark?我是否必须创建一个全局 SparkContext对于整个测试套件,如果是,我该怎么做?

最佳答案

似乎我只见树木不见森林,我忘记了 build.sbt 中的以下行:

parallelExecution in test := false

使用这条线,测试运行。

关于scala - 如何在 ScalaTest 测试中正确使用 Spark?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33237856/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com