gpt4 book ai didi

java - Maven 找不到随 brew 安装的 Spark 库

转载 作者:行者123 更新时间:2023-11-29 04:08:44 25 4
gpt4 key购买 nike

我是 Maven 和 Spark 的新手,我想尝试一下它们。我在 OSx 上,所以我已经使用 brew 安装了两者。在 Eclipse 上,我使用快速向导创建了一个 Maven 项目并创建了以下 pom.xml

<project xmlns="http://maven.apache.org/POM/4.0.0" 

xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.and.app</groupId>
<artifactId>myapp</artifactId>
<version>0.0.1-SNAPSHOT</version>


<dependencies>
<dependency>
<groupId>com.sparkjava</groupId>
<artifactId>spark-core</artifactId>
<version>2.4.3</version>
</dependency>
</dependencies>
</project>

而主类是:

package myapp;

import static spark.Spark.*;

public class Driver {

public static void main(String[] args) {
get("/hello", (req, res) -> "Hello World"); }

}

但是我得到以下错误:

Missing artifact com.sparkjava:spark-core:jar:2.4.3

我认为这是因为 brew 安装,所以我添加了以下行:

 <systemPath>\usr\local\Cellar\apache-spark\2.4.3\libexec\jars</systemPath>

作为 spark jar 的显式路径,紧跟在 pom.xml 中的版本标记之后直到现在我还没有成功。

我做错了什么?

P.S.:我验证了 Maven 和 Spark 安装。

最佳答案

Maven 自动从网络获取依赖项。如果你想让它使用本地安装的 jar,你必须将它们添加到本地 Maven 存储库:

https://maven.apache.org/guides/mini/guide-3rd-party-jars-local.html

但我想知道:您也可以告诉 maven 自己获取 spark 依赖项。它似乎适用于 maven 用户: https://mvnrepository.com/artifact/org.apache.spark/spark-core所以依赖应该是:

<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>2.4.3</version>
</dependency>

关于java - Maven 找不到随 brew 安装的 Spark 库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56515644/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com