gpt4 book ai didi

sql - 按日期列的子集对增量表进行分区

转载 作者:行者123 更新时间:2023-12-02 03:05:50 24 4
gpt4 key购买 nike

我正在 Databricks 中创建一个增量表,其中包含 1 天的代理日志(数百行数百万行)。我希望能够按小时对表进行分区,因此简单地按“_time”列对表进行分区是不够的。另外,我使用 %sql 运行时在笔记本中创建表,但如果这是更好的选择,我愿意在 Scala 中创建它。

如何创建分区逻辑,以便为每个小时的日志创建一个新分区?

我的_time列的格式如下。

yyyy-mm-ddThh:mm:ss.xxxxxx-time:zone 其中时间和区域是 2 位数字。

所以,我想对每个独特的小时进行分区,一天有 24 个分区,就像这样。

yyyy-mm-ddThh

最佳答案

您需要创建单独的列来对数据集进行分区。在 SQL 语法中,您可以使用 datehour 获取您感兴趣的值,然后在查询中使用它,例如

CREATE TABLE events
USING delta
PARTITIONED BY(date, hour)
AS SELECT *, date(_time) as date, hour(_time) as hour from myData

这将导致您的 Delta Lake 按日期和时间分区,物理上在磁盘上大致如下所示:

delta/events/date=2019-01-01/
|-delta/events/date=2019-01-01/hour=0/
|-delta/events/date=2019-01-01/hour=1/
(...)
delta/events/date=2019-01-02/
(...)

请记住,这会将这两列添加到您的增量数据中,但我想不出一种按不属于表的内容进行分区的方法(PARTITION BY hour(x)不会工作)。

+---+-------------------+----------+----+
| id| _time| date|hour|
+---+-------------------+----------+----+
| 71|2019-01-16 12:31:00|2019-01-16| 12|
|108|2019-01-16 12:31:00|2019-01-16| 12|

关于sql - 按日期列的子集对增量表进行分区,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59050606/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com