gpt4 book ai didi

sql - Spark SQL分组: Add to group by or wrap in first() if you don't care which value you get.;

转载 作者:行者123 更新时间:2023-12-02 14:08:55 24 4
gpt4 key购买 nike

我在 Spark SQL 中有一个查询,例如

select count(ts), truncToHour(ts)
from myTable
group by truncToHour(ts).

其中ts是时间戳类型,truncToHour是将时间戳截断为小时的UDF。该查询不起作用。如果我尝试的话,

select count(ts), ts from myTable group by truncToHour(ts)

我得到表达式“ts”既不存在于分组依据中,也不是聚合函数。如果您不关心得到哪个值,请添加到 group by 或包含在first() 中。;,但如果我这样做,则 first() 未定义:

select count(ts), first(ts) from myTable group by truncToHour(ts)

无论如何,在不使用子查询的情况下获得我想要的东西?另外,为什么它说“wrap in first()”但 first() 没有定义?

最佳答案

https://issues.apache.org/jira/browse/SPARK-9210

似乎实际函数是first_value。

关于sql - Spark SQL分组: Add to group by or wrap in first() if you don't care which value you get.;,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31329297/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com