gpt4 book ai didi

java - HiveContext.sql() 给出运行时没有这样的方法错误

转载 作者:可可西里 更新时间:2023-11-01 15:55:53 26 4
gpt4 key购买 nike

您好,我正在尝试使用 Apache Hive 和 Apache Spark 运行一个简单的 Java 程序。程序编译没有任何错误,但在运行时出现以下错误:

Exception in thread "main" java.lang.NoSuchMethodError: org.apache.spark.sql.hive.HiveContext.sql(Ljava/lang/String;)Lorg/apache/spark/sql/DataFrame;
at SparkHiveExample.main(SparkHiveExample.java:13)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:498)
at org.apache.spark.deploy.SparkSubmit$.org$apache$spark$deploy$SparkSubmit$$runMain(SparkSubmit.scala:743)
at org.apache.spark.deploy.SparkSubmit$.doRunMain$1(SparkSubmit.scala:187)
at org.apache.spark.deploy.SparkSubmit$.submit(SparkSubmit.scala:212)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:126)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

以下是我的代码:

 import org.apache.spark.SparkContext;
import org.apache.spark.SparkConf;
import org.apache.spark.sql.hive.HiveContext;
import org.apache.spark.sql.DataFrame;
public class SparkHiveExample {
public static void main(String[] args) {
SparkConf conf = new SparkConf().setAppName("SparkHive Example");
SparkContext sc = new SparkContext(conf);
HiveContext hiveContext = new HiveContext(sc);

System.out.println("Hello World");
DataFrame df = hiveContext.sql("show tables");
df.show();
}
}

我的 pom.xml 文件如下所示:

<project>
<groupId>edu.berkeley</groupId>
<artifactId>simple-project</artifactId>
<modelVersion>4.0.0</modelVersion>
<name>Simple Project</name>
<packaging>jar</packaging>
<version>1.0</version>
<dependencies>
<dependency> <!-- Spark dependency -->
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.3.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>1.3.0</version>
</dependency>
</dependencies>
</project>

可能是什么问题?

编辑:我尝试使用 SQLContext.sql() 方法,但我仍然收到类似的方法未找到运行时错误。 This stackoverflow 回答表明问题是由依赖性问题引起的,但我无法弄清楚是什么。

最佳答案

确保您的 spark core 和 spark hive 依赖项设置为 provided 的范围,如下所示。这些依赖项由集群提供,而不是由您的应用程序提供。

并确保您安装的 spark 版本为 1.3 或更高版本。在 1.3 之前,sql 方法返回一个 RDD (SchemaRDD) 而不是 DataFrame。安装的 spark 版本很可能早于 1.3。

 <dependency> 
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.3.0</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>1.3.0</version>
<scope>provided</scope>
</dependency>

并且建议您使用 SparkSession 对象来运行查询而不是 HiveContext。下面的代码片段解释了 SparkSession 的用法。

val spark = SparkSession.builder.
master("local")
.appName("spark session example")
.enableHiveSupport()
.getOrCreate()

spark.sql("show tables")

关于java - HiveContext.sql() 给出运行时没有这样的方法错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44296448/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com