- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我是 zeppelin notebook 的新手。但我注意到一件事,与 spark-shell 不同,当我启动笔记本时,hiveContext 不会在 zeppelin 中自动创建。
当我尝试在 zeppelin 中手动加载 hiveContext 时:
import org.apache.spark.sql.hive._
import org.apache.spark.sql.hive.HiveContext
val hiveContext = new HiveContext(sc)
我收到这个错误
java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)
at org.apache.spark.sql.hive.client.ClientWrapper.<init>(ClientWrapper.scala:204)
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(Unknown Source)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(Unknown Source)
at java.lang.reflect.Constructor.newInstance(Unknown Source)
at org.apache.spark.sql.hive.client.IsolatedClientLoader.createClient(IsolatedClientLoader.scala:249)
at org.apache.spark.sql.hive.HiveContext.metadataHive$lzycompute(HiveContext.scala:327)
at org.apache.spark.sql.hive.HiveContext.metadataHive(HiveContext.scala:237)
at org.apache.spark.sql.hive.HiveContext.setConf(HiveContext.scala:441)
at org.apache.spark.sql.hive.HiveContext.defaultOverrides(HiveContext.scala:226)
at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:229)
at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:101)
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:33)
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:38)
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:40)
at $iwC$$iwC$$iwC$$iwC$$iwC$$iwC$$iwC.<init>(<console>:42)
我认为这个错误意味着之前的 metastore_db 不允许覆盖新的。
我正在使用 spark 1.6.1
如有任何帮助,我们将不胜感激。
最佳答案
检查您的 metastore_db 权限...然后你在 REPL 模式下测试..那么你必须移动齐柏林飞艇。
关于apache-spark - 如何在 Zeppelin 中加载 hiveContext?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45454019/
我想知道spark如何处理这些情况以及使用什么会更快更好。数据帧中的原生计数和 Spark sql 中的计数哪个更好?我认为这不仅仅涉及计数。 hc = HiveContext(sc) t0 = ti
我试图使用 HiveContext 对象从我的 spark 代码运行一些配置单元查询。当我使用 spark submit 从命令行运行它时,它工作正常。但是,当我尝试从 oozie 工作流运行相同的内
您好,我正在尝试使用 Apache Hive 和 Apache Spark 运行一个简单的 Java 程序。程序编译没有任何错误,但在运行时出现以下错误: Exception in thread "m
我尝试将数据帧存储到Spark 1.3.0(PySpark)中的持久性Hive表中。这是我的代码: sc = SparkContext(appName="HiveTest") hc = HiveCon
我试图在单元测试中做到这一点: val sConf = new SparkConf() .setAppName("RandomAppName") .setMaster("local") val
我正在尝试使用 Spark 中的 HiveContext 访问 hive 中映射的 hbase 表。但是我收到了 ClassNotFoundException 异常。下面是我的代码。 import o
我已经使用 Maven 构建了 Spark-1.2.1,以使用以下命令启用 Hive 支持:mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -Phive
当我运行以下命令时: val df1 = sqlContext.read.format("orc").load(myPath) df1.columns.map(m => println(m)) 这些列
我正在尝试使用 Spark 中的 HiveContext 访问 hive 中映射的 hbase 表。但是我收到了 ClassNotFoundException 异常。下面是我的代码。 import o
我有一个“iplRDD”,它是一个 json,我执行以下步骤并通过 hivecontext 进行查询。我得到了结果,但没有列标题。有没有办法获取列名和值? val teamRDD = hiveCont
我正在创建配置单元上下文并查询配置单元表,如下所示,spark 上下文是使用 yarn-cluster 创建的 HiveContext hv = new HiveContext(sc) hv.sql(
我是 Spark 的新手。我发现使用 HiveContext 我们可以连接到 hive 并运行 HiveQL。我运行它并且成功了。 我怀疑Spark是不是通过spark jobs来实现的,也就是说,它
例如,我想传递给 Spark SQL 的 Hive HQL 语句很少: set parquet.compression=SNAPPY; create table MY_TABLE stored as
我正在尝试使用我的 HiveContext 运行插入语句,如下所示: hiveContext.sql('insert into my_table (id, score) values (1, 10)'
我是 zeppelin notebook 的新手。但我注意到一件事,与 spark-shell 不同,当我启动笔记本时,hiveContext 不会在 zeppelin 中自动创建。 当我尝试在 ze
我在 Apache Spark 1.3 中使用 HiveContext,因为我需要它更好的查询支持(相对于 1.3 的 SQLContext)。 我正在 Azure“HDInsight”Spark 群
我在 Apache Spark 1.3 中使用 HiveContext,因为我需要它更好的查询支持(相对于 1.3 的 SQLContext)。 我正在 Azure“HDInsight”Spark 群
我使用 pyspark 进行一些数据处理,并将 HiveContext 用于窗口函数。 为了测试代码,我使用了 TestHiveContext,基本上是从 pyspark 源代码中复制实现: http
我正在使用 Jupyter 笔记本对 pySpark 进行分析。我的代码最初使用 sqlContext = SQLContext(sc) 构建数据帧,但现在我已切换到 HiveContext,因为我将
我想为任何新添加/删除的分区修复配置单元表。而不是在配置单元中手动运行 msck 修复命令,有什么方法可以在 java 中实现这一点?我正在尝试从 hdfs 和配置单元中获取所有分区Metastore
我是一名优秀的程序员,十分优秀!