- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我通过 conda
和 pip
pyspark 从头构建并以编程方式使用我的 PySpark
环境(就像我演示的 Here ) ;而不是使用可下载的 Spark 发行版中的 PySpark
。正如您在上面 URL 的第一个代码片段中看到的那样,我通过(除其他外)我的 SparkSession 启动脚本中的 k/v conf-pairs 来完成此操作。 (顺便说一句,这种方法使我能够在各种 REPL、IDE 和 JUPYTER 中工作)。
但是,关于配置 Spark 支持访问 HIVE 数据库和元数据存储,手册是这样说的:
Configuration of
Hive
is done by placing yourhive-site.xml
,core-site.xml
(for security configuration), andhdfs-site.xml
(for HDFS configuration) file inconf/
.
上面的 conf/
是指 Spark 分发包中的 conf/
目录。但是 pyspark
通过 pip
和 conda
当然没有那个目录,那么如何将 HIVE 数据库和 Metastore 支持插入到 Spark 中那种情况?
我怀疑这可能由具有特殊前缀的 SparkConf K/V 对提供,形式为:spark.hadoop.*
(参见 here);如果是,我仍然需要确定需要哪些 HADOOP/HIVE/CORE 指令。我想我会试错的。 :)
注意:.enableHiveSupport()
已经包含在内。
我将修改 spark.hadoop.*
K/V 对,但如果有人知道这是如何立即完成的,请告诉我。
谢谢。 :)
编辑:提供解决方案后,我更新了first URL above中的内容.它现在集成了下面讨论的 SPARK_CONF_DIR
和 HADOOP_CONF_DIR
环境变量方法。
最佳答案
在这种情况下,我建议 the official configuration guide (强调我的):
If you plan to read and write from HDFS using Spark, there are two Hadoop configuration files that should be included on Spark’s classpath:
- hdfs-site.xml, which provides default behaviors for the HDFS client.
- core-site.xml, which sets the default filesystem name.
(...)
To make these files visible to Spark, set
HADOOP_CONF_DIR
in$SPARK_HOME/conf/spark-env.sh
to a location containing the configuration files.
To specify a different configuration directory other than the default “
SPARK_HOME/conf
”, you can setSPARK_CONF_DIR
. Spark will use the configuration files (spark-defaults.conf, spark-env.sh, log4j.properties, etc) from this directory.
因此可以使用您的 Spark 安装可访问的任意目录来放置所需的配置文件,并且 SPARK_CONF_DIR
和/或 HADOOP_CONF_DIR
可以直接在您的脚本中轻松设置, 使用 os.environ
.
最后,大多数时候甚至不需要单独的 Hadoop 配置文件,因为 Hadoop 特定属性可以直接在 Spark 文档中设置,使用 spark.hadoop.*
前缀。
关于python - 如何将 HIVE 访问集成到派生自 pip 和 conda 的 PySpark(而不是来自 Spark 发行版或包),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54447775/
我有一个无法理解的奇怪编译问题。 //I know, you should never derive from the STL Library template class SharedClass :
我是一个刚开始学习 Haskell 的菜鸟,所以如果我问愚蠢的问题,请耐心等待。 最近我在 SO 中遇到了演示如何导出函数和表达式的类型和实现的问题(诸如 How can I understand "
如何自动派生此 GADT 的 Read 实例: {-# LANGUAGE GADTs, StandaloneDeriving #-} data TypeDec a where TypeDecInt
我遇到了我想要的情况 Deal class要注意它DealDetail type反之亦然,我想 DealDetail注意Deal type .将来我想有很多 Deal 的后代和 DealDetails
我是 C# 新手,所以请多多包涵。 好的,所以我在不同的程序集中有两个类需要相互引用: namespace AssemblyA { class A { private B MyB {
简而言之,我已经实现了一个派生自 SynchronizationContext 的类,以便 GUI 应用程序可以轻松地使用在 GUI 线程以外的线程上引发的事件。我非常感谢对我的实现的评论。具体来说,
我正在设计一个小型系统,想知道如何为派生类分配内存的细微差别。 如果我有两个类(class) class foo { public: int a; Foo(): a(0) {}; }; class
我正在尝试编写一个派生 PartialEq 的枚举,其中包含一个手动执行此操作的特征对象。我使用了解决方案 here为了强制 Trait 的实现者编写相等方法。这无法编译: trait Trait {
以下代码可以编译(特别是 MyError 被识别为具有调试特性): use std::str; use std::fmt; #[derive(Debug)] enum MyError where F:
是否有一种简单的方法来注释结构中的字段,以便在派生 PartialEq 特征时忽略它们?例如: #[derive(PartialEq,Eq)] pub struct UndirectedGraph {
我正在编写代码来处理“Foo”类型的对象。 foo 是一种容器,为了提供对其元素的高效和抽象访问,它提供了 Element 类型的嵌套类。 Element 包装对象在容器中的位置。 现在,“Foo”可
假设如下: class child : public parent { public: fun1(parent * obj); //somewhere on the child class
我有几个模板类 template class Transition { public: virtual Cost getCost() = 0; }; template class St
我正在尝试使用自定义 QSortFilterProxyModel . 这是我的标题: #include class QSortFilterProxyModel_NumbersLast : publi
我正在使用 C# 和 mvc3。我在解决方案中添加了一个项目。我想创建一个新 Controller 并让它从我添加的项目中的 Controller 派生。我该怎么做? 最佳答案 在 Visual St
我在 python 中有一个对象,它派生自 QtGui.QGraphicsPixmapItem,具有一些基本属性和方法。在对此对象的引用上调用 deepcopy 后,当我尝试使用该副本时收到一条错误消
由于只能给FixedDocument添加页面,所以我写了一个派生类: public class CustomFixedDocument : FixedDocument { public voi
我在自定义 QMainWindow 时遇到了很大的问题,因为我不知道如何实现以下内容: 在 QMainWindow 文档中,QMainWindow 有一些用于工具栏、停靠小部件、状态栏和其他的特殊区域
我想感受一下QT,决定写一个小的十六进制编辑器。为此,我需要一个允许滚动的小部件。经过一番研究,我发现 QTextEdit 为此目的派生自 QAbstractScrollArea。在阅读 QAbstr
我正在寻找一种可以从已经发生的洗牌过程中派生出 key 的算法。 假设我们有被打乱的字符串“Hello”: "hello" -> "loelh" 现在我想从中导出一个 key k,我可以用它来撤销洗牌
我是一名优秀的程序员,十分优秀!