gpt4 book ai didi

java - Apache Spark,创建配置单元上下文 - NoSuchMethodException

转载 作者:搜寻专家 更新时间:2023-11-01 03:48:30 25 4
gpt4 key购买 nike

我有以下问题,我的主要方法是:

static public void main(String args[]){
SparkConf conf = new SparkConf().setAppName("TestHive");
SparkContext sc = new org.apache.spark.SparkContext(conf);
HiveContext hiveContext = new org.apache.spark.sql.hive.HiveContext(sc);
}

我用 mvn package 构建它然后我提交我的代码,但是我得到以下异常。我不知道出了什么问题:

sh spark-submit --class "TestHive" --master local[4] ~/target/test-1.0-SNAPSHOT-jar-with-dependencies.jar 

Exception in thread "main" java.lang.NoSuchMethodException: org.apache.hadoop.hive.conf.HiveConf.getTimeVar(org.apache.hadoop.hive.conf.HiveConf$ConfVars, java.util.concurrent.TimeUnit)

请告诉我,我哪里错了。

PS 我用 hive 和 thriftServer 构建了我的 spark。

Spark 1.5.2 built for Hadoop 2.4.0
Build flags: -Psparkr -Phadoop-2.4 -Phive -Phive-thriftserver -Pyarn

最佳答案

好像是spark组件(spark-core、spark-sql、spark-hive)版本冲突

为了避免这种冲突,这些组件的所有版本都应该相同。你可以在你的 pom.xml 中通过设置一个名为 spark.version 的属性来做到这一点,例如:

<properties>
<spark.version>1.6.0</spark.version>
</properties>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>${spark.version}</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>${spark.version}</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.10</artifactId>
<version>${spark.version}</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.10</artifactId>
<version>${spark.version}</version>
</dependency>
</dependencies>

关于java - Apache Spark,创建配置单元上下文 - NoSuchMethodException,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35920579/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com