- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有一个令人尴尬的并行任务,我使用 Spark 来分配计算。这些计算是在 Python 中进行的,我使用 PySpark 来读取和预处理数据。我的任务的输入数据存储在 HBase 中。不幸的是,我还没有找到一种令人满意的(即易于使用和可扩展的)方式来使用 Python 从/向 Spark 读取/写入 HBase 数据。
我之前探索过的内容:
使用 happybase
从我的 Python 进程中连接。这个包允许使用 HBase 的 Thrift API 从 Python 连接到 HBase。这样,我基本上跳过 Spark 进行数据读取/写入,并且错过了潜在的 HBase-Spark 优化。读取速度似乎相当快,但写入速度很慢。这是目前我最好的解决方案。
使用利用 HBase 的 MapReduce 接口(interface)的 SparkContext 的 newAPIHadoopRDD
和 saveAsNewAPIHadoopDataset
。这方面的示例曾经包含在 Spark 代码库中 (see here)。但是,这些现在被认为已过时,有利于 HBase 的 Spark 绑定(bind) (see here)。我还发现这种方法既慢又麻烦(对于读、写效果很好),例如,从 newAPIHadoopRDD
返回的字符串必须以各种方式进行解析和转换,最终得到我想要的 Python 对象。它还一次只支持一列。
我知道的替代方案:
我目前正在使用 Cloudera 的 CDH,5.7.0 版提供了 hbase-spark
(CDH release notes 和 a detailed blog post)。该模块(以前称为 SparkOnHBase
)将正式成为 HBase 2.0 的一部分。不幸的是,这个绝妙的解决方案似乎只适用于 Scala/Java。
华为 Spark-SQL-on-HBase/Astro (我看不出两者有什么区别……)。它看起来不像我希望我的解决方案那样强大和得到很好的支持。
最佳答案
我找到了 this comment由 hbase-spark
的制造商之一提供,这似乎表明有一种方法可以使用 PySpark 通过 Spark SQL 查询 HBase。
事实上,the pattern described here可以应用于使用 PySpark 使用 Spark SQL 查询 HBase,如以下示例所示:
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext()
sqlc = SQLContext(sc)
data_source_format = 'org.apache.hadoop.hbase.spark'
df = sc.parallelize([('a', '1.0'), ('b', '2.0')]).toDF(schema=['col0', 'col1'])
# ''.join(string.split()) in order to write a multi-line JSON string here.
catalog = ''.join("""{
"table":{"namespace":"default", "name":"testtable"},
"rowkey":"key",
"columns":{
"col0":{"cf":"rowkey", "col":"key", "type":"string"},
"col1":{"cf":"cf", "col":"col1", "type":"string"}
}
}""".split())
# Writing
df.write\
.options(catalog=catalog)\ # alternatively: .option('catalog', catalog)
.format(data_source_format)\
.save()
# Reading
df = sqlc.read\
.options(catalog=catalog)\
.format(data_source_format)\
.load()
我为此尝试过 hbase-spark-1.2.0-cdh5.7.0.jar
(由 Cloudera 分发),但遇到了麻烦(org.apache.hadoop. hbase.spark.DefaultSource 不允许 create table as select
写入时,java.util.NoSuchElementException: None.get
读取时)。事实证明,当前版本的 CDH 不包括允许 Spark SQL-HBase 集成的 hbase-spark
更改。
对我有用的是 shc
Spark 包,找到 here .我必须对上述脚本进行的唯一更改是更改:
data_source_format = 'org.apache.spark.sql.execution.datasources.hbase'
下面是我如何在我的 CDH 集群上提交上述脚本,遵循 shc
自述文件中的示例:
spark-submit --packages com.hortonworks:shc:1.0.0-1.6-s_2.10 --repositories http://repo.hortonworks.com/content/groups/public/ --files /opt/cloudera/parcels/CDH/lib/hbase/conf/hbase-site.xml example.py
关于shc
的大部分工作似乎已经合并到HBase 的hbase-spark
模块中,以便在2.0 版本中发布。这样,就可以使用上述模式对 HBase 进行 Spark SQL 查询(有关详细信息,请参阅:https://hbase.apache.org/book.html#_sparksql_dataframes)。我上面的示例显示了 PySpark 用户的情况。
最后,一个警告:我上面的示例数据只有字符串。 shc
不支持 Python 数据转换,因此我遇到了整数和 float 未显示在 HBase 中或具有奇怪值的问题。
关于python - 如何使用 Python 连接 HBase 和 Spark?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38470114/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!