gpt4 book ai didi

sql - 对象 sql 不是包 org.apache.spark 的成员

转载 作者:行者123 更新时间:2023-12-05 04:08:21 24 4
gpt4 key购买 nike

我正在尝试使用 spark-sql 但在导入时

import org.apache.spark.sql.{Row, SparkSession}

出现以下错误:

object sql is not a member of package org.apache.spark

这是我的详细信息:

星火版本:1.6.2斯卡拉版本:2.11.8sbt 版本:0.13.16

这是我的 build.sbt 文件:

name := "sbt_demo"
version := "1.0"
scalaVersion := "2.11.8"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.6.2"

libraryDependencies += "org.apache.spark" %% "spark-sql" % "1.6.2"

注意:在 Stack Overflow 中还有另一个问题与同样的问题有关,但接受的答案对我没有帮助。这就是我再次提问的原因。

最佳答案

我有同样的问题,这是我的 build.sbt 文件

name := "rec"
version := "0.1"
scalaVersion := "2.11.12"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.3.0"

有人说下面这个命令可以工作

sbt reload package    
sbt update
sbt reload

但它对我不起作用。所以我删除了 .idea 文件并重新导入 build.sbt 文件中的所有内容,它对我来说效果很好

关于sql - 对象 sql 不是包 org.apache.spark 的成员,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47657866/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com