gpt4 book ai didi

scala - “unresolved dependency” 用于 SBT 上的 Spark 2.1.0

转载 作者:行者123 更新时间:2023-12-03 17:38:15 25 4
gpt4 key购买 nike

version := "1.0"
scalaVersion := "2.11.8"
ivyScala := ivyScala.value map { _.copy(overrideScalaVersion = true) }
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.0"



当我尝试通过 sbt 组装 jar 时,我尝试将 spark 引入我的开发环境,但它失败并在我的 sbt 中显示 [error],如下所示:
[warn]  :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn] :: UNRESOLVED DEPENDENCIES :: <br/>
[warn] :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn] :: org.apache.spark#spark-core_2.11;2.1.0: not found <br/>
[warn] :::::::::::::::::::::::::::::::::::::::::::::: <br/>
[warn]
[warn] Note: Unresolved dependencies path: <br/>
[warn] org.apache.spark:spark-core_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L9-10) <br/>
[warn] +- org.apache.spark:spark-catalyst_2.11:2.1.0 <br/>
[warn] +- org.apache.spark:spark-sql_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L15-16) <br/>
[warn] +- org.apache.spark:spark-hive_2.11:2.1.0 (D:\MyDocument\IDEA\Scala\model\build.sbt#L11-12) <br/>
[warn] +- default:producttagmodel_2.11:1.0 <br/>
[trace] Stack trace suppressed: run 'last *:update' for the full output. <br/>
[error] (*:update) sbt.ResolveException: unresolved dependency: org.apache.spark#spark-core_2.11;2.1.0: not found

我的IntelliJ版本是2016.3.5,sbt版本是0.13.13,scala版本是2.11.8;我发现 sbt 已经成功下载了 spark-core.jar,我在我的 .ivy/cache 目录中找到了它,但它总是显示“未知工件。未解析或索引”。我已经多次刷新我的项目索引,但它没有用。在 IntelliJ 缓存干扰的情况下,我使用相同的 build.sbt 创建了一个新项目,但它不起作用。我完全对这个问题感到困惑。
下面是我的 build.sbt 设置:

enter image description here

最佳答案

如何将依赖项更改为:

libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "2.1.0"

此外,对于 spark 应用程序,这通常添加为 "provided" ,它不应包含在 jar 中,因为当您提交作业时,相关的 Spark 库已安装在驱动程序和执行程序中。

关于scala - “unresolved dependency” 用于 SBT 上的 Spark 2.1.0,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43155665/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com