gpt4 book ai didi

maven - 如何将 Spark 测试包含为 Maven 依赖项

转载 作者:行者123 更新时间:2023-12-04 18:36:56 29 4
gpt4 key购买 nike

我继承了依赖于的旧代码

org.apache.spark.LocalSparkContext 

这是在 Spark 核心测试中。但是 spark core jar(正确)不包括仅测试类。我无法确定 spark 测试类是否/在哪里有自己的 Maven Artifact 。这里的正确方法是什么?

最佳答案

您可以向 test-jar 添加依赖项Spark 通过添加 <type>test-jar</type> .例如,对于基于 Scala 2.11 的 Spark 1.5.1:

<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>1.5.1</version>
<type>test-jar</type>
<scope>test</scope>
</dependency>

这个依赖提供了Spark的所有测试类,包括 LocalSparkContext .

关于maven - 如何将 Spark 测试包含为 Maven 依赖项,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33323841/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com