- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用 Apache Spark 生成 Parquet 文件。我可以毫无问题地按日期对它们进行分区,但在内部我似乎无法按正确的顺序排列数据。
订单似乎在处理过程中丢失了,这意味着 Parquet 元数据不正确(特别是我想确保 Parquet 行组反射(reflect)排序顺序,以便特定于我的用例的查询可以通过元数据进行有效过滤)。
考虑以下示例:
// note: hbase source is a registered temp table generated from hbase
val transformed = sqlContext.sql(s"SELECT id, sampleTime, ... , toDate(sampleTime) as date FROM hbaseSource")
// Repartion the input set by the date column (in my source there should be 2 distinct dates)
val sorted = transformed.repartition($"date").sortWithinPartitions("id", "sampleTime")
sorted.coalesce(1).write.partitionBy("date").parquet(s"/outputFiles")
通过这种方法,我确实得到了正确的 Parquet 分区结构(按日期)。更好的是,对于每个日期分区,我看到一个大的 Parquet 文件。
/outputFiles/date=2018-01-01/part-00000-4f14286c-6e2c-464a-bd96-612178868263.snappy.parquet
但是,当我查询文件时,我看到内容乱序。具体来说,“乱序”似乎更像是几个有序的数据帧分区已合并到文件中。
id: :[min: 54, max: 65012, num_nulls: 0]
sampleTime: :[min: 1514764810000000, max: 1514851190000000, num_nulls: 0]
id: :[min: 827, max: 65470, num_nulls: 0]
sampleTime: :[min: 1514764810000000, max: 1514851190000000, num_nulls: 0]
id: :[min: 1629, max: 61412, num_nulls: 0]
我希望数据在每个文件中正确排序,以便每个行组中的元数据最小值/最大值不重叠。
RG 0: id: :[min: 54, max: 100, num_nulls: 0]
RG 1: id: :[min: 100, max: 200, num_nulls: 0]
...其中RG =“行组”。如果我想要
id = 75
,查询可以在一个行组中找到它。
coalesce
(我知道合并不好,但我的想法是用它来防止改组)。我也试过
sort
而不是
sortWithinPartitions
(排序应该创建一个完全有序的排序,但会导致许多分区)。例如:
val sorted = transformed.repartition($"date").sort("id", "sampleTime")
sorted.write.partitionBy("date").parquet(s"/outputFiles")
给了我 200 个文件,太多了,而且它们仍然没有正确排序。我可以通过调整随机大小来减少文件数,但我希望在写入期间按顺序处理排序(我的印象是写入不会对输入进行随机排序)。我看到的顺序如下(为简洁起见省略了其他字段):
+----------+----------------+
|id| sampleTime|
+----------+----------------+
| 56868|1514840220000000|
| 57834|1514785180000000|
| 56868|1514840220000000|
| 57834|1514785180000000|
| 56868|1514840220000000|
看起来它是交错排序的分区。所以我想
repartition
在这里什么都不给我买,而且
sort
似乎无法在写入步骤中保持顺序。
insertInto
。在这种情况下,spark 似乎使用了旧版本的 parquet-mr,它破坏了元数据,我不确定如何升级它。
repartition($"date")
和
sort
工作和/或互动。
show(n)
在
transformed.sort("id", "sampleTime")
数据排序正确。
所以看起来问题发生在写入阶段。 如上所述,排序的输出似乎在写入过程中被打乱了。
最佳答案
问题是Spark在保存文件格式的时候是需要一定的顺序的,如果顺序不满足,Spark会在保存过程中根据要求对数据进行排序,忘记排序。更具体地说,Spark 需要这个顺序(这直接取自 Spark 2.4.4 的 Spark 源代码):
val requiredOrdering = partitionColumns ++ bucketIdExpression ++ sortColumns
partitionColumns
是用于对数据进行分区的列。您没有使用分桶,所以
bucketingIdExpression
和
sortColumns
在这个例子和
requiredOrdering
中不相关将只是
partitionColumns
.所以如果这是你的代码:
val sorted = transformed.repartition($"date").sortWithinPartitions("id",
"sampleTime")
sorted.write.partitionBy("date").parquet(s"/outputFiles")
date
排序,这不是,所以 Spark 会忘记你的排序并按
date
排序。 .另一方面,如果您改为这样做:
val sorted = transformed.repartition($"date").sortWithinPartitions("date", "id",
"sampleTime")
sorted.write.partitionBy("date").parquet(s"/outputFiles")
date
排序这一次是(满足要求)所以 Spark 将保留这个顺序,并且在保存数据时不会引入更多的排序。所以我相信这种方式应该有效。
关于scala - 无法将有序数据写入 Spark 中的 Parquet ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52159938/
我有这个代码 var myChart = new FusionCharts("../themes/clean/charts/hbullet.swf", "myChartId", "400", "75
既然写入是立即进行的(复制到内核缓冲区并返回),那么使用 io_submit 进行写入有什么好处? 事实上,它 (aio/io_submit) 看起来更糟,因为您必须在堆上分配写入缓冲区并且不能使用基
我正在使用 mootool 的 Request.JSON 从 Twitter 检索推文。收到它后,我将写入目标 div 的 .innerHTML 属性。当我在本地将其作为文件进行测试时,即 file:
最终,我想将 Vertica DB 中的数据抓取到 Spark 中,训练机器学习模型,进行预测,并将这些预测存储到另一个 Vertica DB 中。 当前的问题是确定流程最后部分的瓶颈:将 Spark
我使用 WEKA 库编写了一个 Java 程序, 训练分类算法 使用经过训练的算法对未标记的数据集运行预测 将结果写入 .csv 文件 问题在于它当前写出离散分类结果(即算法猜测一行属于哪个类别)。我
背景 - 我正在考虑使用 clickonce 通过 clickonce(通过网站)部署 WinForms 应用程序。相对简单的应用程序的要素是: - 它是一个可执行文件和一个数据库文件(sqlite)
是否有更好的解决方案来快速初始化 C 数组(在堆上创建)?就像我们使用大括号一样 double** matrix_multiply(const double **l_matrix, const dou
我正在读取 JSON 文件,取出值并进行一些更改。 基本上我向数组添加了一些值。之后我想将其写回到文件中。当我将 JSONArray 写回文件时,会被写入字符串而不是 JSONArray 对象。怎样才
我为两个应用程序使用嵌入式数据库,其中一个是服务器,另一个是客户端。客户端应用程序。可以向服务器端发送获取数据请求以检索数据并显示在表格(或其他)中。问题是这样的:如何将获取的数据保存(写入)到页面文
是否有更好的解决方案来快速初始化 C 数组(在堆上创建)?就像我们使用大括号一样 double** matrix_multiply(const double **l_matrix, const dou
从问题得出问题:找到所有 result = new ArrayList(); for (int i = 2; i >(i%8) & 0x1) == 0) { result.add(i
由于某种原因,它没有写入 CSV。谁能明白为什么它不写吗? def main(): list_of_emails = read_email_csv() #read input file, cr
关闭。 这个问题是 not reproducible or was caused by typos 。它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能在这里出现,
我目前正在开发一个保存和加载程序,但我无法获得正确的结果。 编写程序: #include #include #define FILENAME "Save" #define COUNT 6 type
import java.io.*; public class Main2 { public static void main(String[] args) throws Exception {
我需要使用预定义位置字符串“Office”从所有日历中检索所有 iOS 事件,然后将结果写入 NSLog 和 UITextView。 到目前为止,这是我的代码: #import "ViewCo
我正在尝试将 BOOL 值写入 PFInstallation 中的列,但会不停地崩溃: - (IBAction)pushSwitch:(id)sender { NSUserDefaults *push
我以前在学校学过一些简单的数据库编程,但现在我正在尝试学习最佳实践,因为我正在编写更复杂的应用程序。写入 MySQL 数据库并不难,但我想知道让分布式应用程序写入 Amazon EC2 上的远程数据库
是否可以写回到ResourceBundle?目前我正在使用 ResourceBundle 来存储信息,在运行时使用以下内容读取信息 while(ResourceBundle.getBundle("bu
关闭。这个问题是not reproducible or was caused by typos .它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topi
我是一名优秀的程序员,十分优秀!