- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用 JavaSparkContext 对象创建 SQL 上下文对象,因为它的参数如下:
SparkConf sparkConf=new SparkConf().setMaster("local").setAppName("Example");
JavaSparkContext sc=new JavaSparkContext(sparkConf);
SQLContext sqlctx=new HiveContext(sc);
Eclipse 抛出错误:
The constructor HiveContext(JavaSparkContext) is undefined
但是我在互联网上查找的所有示例(包括文档)都使用 JavaSparkContext 作为参数。我错过了什么吗?
Maven 依赖项:
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.2.0</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>1.2.0</version>
<scope>provided</scope>
</dependency>
最佳答案
spark_hive 不应该依赖 Spark 2.2 吗?
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.2.0</version>
<scope>provided</scope>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>2.2.0</version>
<scope>provided</scope>
</dependency>
如果您使用 Spark 2.2,我认为 HiveContext 已被弃用,您应该只使用 SparkSession 作为查询和计算的入口点:
Upgrading From Spark SQL 1.6 to 2.0
SparkSession is now the new entry point of Spark that replaces the old SQLContext and HiveContext. Note that the old SQLContext and HiveContext are kept for backward compatibility. A new catalog interface is accessible from SparkSession - existing API on databases and tables access such as listTables, createExternalTable, dropTempView, cacheTable are moved here.
关于java - 创建 SQLContext 对象时,构造函数 HiveContext(JavaSparkContext) 出现未定义错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46002529/
我将 spark 与 cassandra 一起使用,我有一个 JavaRDD客户。对于每个客户,我想从 cassandra 中选择他这样的交互: avaPairRDD> a = client.mapT
我有一个 SparkConf 对象: final SparkConf conf = new SparkConf(); 从该配置中,我实例化了我的 JavaSparkContext: JavaSpark
我有多个文本文件要用 JavaSparkContext 读取,每个文件可能略有不同并且包含多行记录,所以我想使用正则表达式分隔符来查找记录。是否可以使用正则表达式配置 textinputformat
SparkContext, JavaSparkContext, SQLContext 和 SparkSession 有什么区别? 是否有任何方法可以使用 SparkSession 转换或创建上下文?
我有一个 Spring Boot 应用程序,我已向其中添加了 Spark Core 依赖项,因为我想在其中使用 JavaSparkContext。 不幸的是,当我尝试初始化应用程序时,我收到此NoCl
我正在使用 SparkSession 来运行我的 spark 应用程序,因为我使用了很多 spark-sql 功能。我想使用 JavaSparkContext 从列表中创建 RDD。但是通过 Sess
我正在尝试添加过滤器,如the examples所示到我的程序: val logFile = "/tmp/master.txt" val sc = new JavaSparkContext("loca
我们可以调用JavaSparkContext.wholeTextFiles并得到JavaPairRDD ,其中第一个字符串是文件名,第二个字符串是整个文件内容。 Dataset API中是否有类似的方
在我的应用程序中,有一个 Web UI 应用程序在完成向 Kafka 的文件上传过程后发送文件路径。 我有一个 Spark Streaming 应用程序,它使用 JavaSparkContext 和
当我的spark程序调用JavaSparkContext.stop()时,出现如下错误。 14/12/11 16:24:19 INFO Main: sc.stop { 14/12/11 16:24:2
我正在尝试在 Google Dataproc 上运行 Spark 作业。但是,正如通常所见,Spark Driver 的初始化占用了大量的执行时间。我想知道什么是使用相同的 JavaSparkCont
我有一个包含多个类的 spark 应用程序。我在我的主类中创建 JavaSparkContext 并使用它从 hdfs (sc.textFile) 获取数据。然后这个数据被传递给另一个正在处理它的对象
我在将 Spark 示例转换为可运行代码时遇到了相当大的困难(正如我之前的问题 here 所证明的那样)。 那里提供的答案帮助我解决了那个特定的例子,但现在我正在尝试使用 the Multilayer
当我运行 PySpark 时,执行 sc._gateway.help(sc._jsc) 成功地给了我一些不错的输出,比如 JavaSparkContext extends org.apache.spa
我正在尝试使用 JavaSparkContext 对象创建 SQL 上下文对象,因为它的参数如下: SparkConf sparkConf=new SparkConf().setMaster("loc
我正在尝试运行以下简单的 Spark 代码: Gson gson = new Gson(); JavaRDD stringRdd = jsc.textFile("src/main/resources/
最近我一直在努力让 Spark 在我的 Windows 10 设备上运行,但没有成功。我只是想试用 Spark 并能够按照教程进行操作,因此我目前无法访问要连接的集群。为了安装 Spark,我完成了以
我尝试在 springboot 中编写一个简单的休息 Controller ,它接受一个文件和一个字符串,并在该文件中搜索该字符串被找到的次数,基本上是单词搜索和计数。 我的电脑上运行着 master
最近我一直在努力让 Spark 在我的 Windows 10 设备上运行,但没有成功。我只是想试用 Spark 并能够按照教程进行操作,因此我目前无法访问要连接的集群。为了安装 Spark,我完成了以
我是一名优秀的程序员,十分优秀!