gpt4 book ai didi

sql - 斯卡拉 : Spark sqlContext query

转载 作者:可可西里 更新时间:2023-11-01 16:31:19 27 4
gpt4 key购买 nike

我的文件中只有 3 个事件(第 3 列)01、02、03。

模式是 unixTimestamp|id|eventType|date1|date2|date3

639393604950|1001|01|2015-05-12 10:00:18|||
639393604950|1002|01|2015-05-12 10:04:18|||
639393604950|1003|01|2015-05-12 10:05:18|||
639393604950|1001|02||2015-05-12 10:40:18||
639393604950|1001|03|||2015-05-12 19:30:18|
639393604950|1002|02|2015-05-12 10:04:18|||

在sqlContext中,如何按ID合并数据?我期待 id 1001 的这个:

639393604950|1001|01|2015-05-12 10:00:18|2015-05-12 10:40:18|2015-05-12 19:30:18|

这是我需要调整的查询:

val events = sqlContext.sql("SELECT id, max(date1), max(date2), max(date3) " +
"FROM parquetFile group by id, date1, date2, date3")
events.collect().foreach(println)

最佳答案

SELECT id, max(date1), max(date2), max(date3) FROM parquetFile group by id

关于sql - 斯卡拉 : Spark sqlContext query,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30364240/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com