gpt4 book ai didi

hadoop - 如何在 hive 中获取时间戳的平均数(('yyyy-mm-dd hh:mm:ss')?

转载 作者:行者123 更新时间:2023-12-02 18:37:21 24 4
gpt4 key购买 nike

我有一个日志表。看起来像这样:

  user_name               idle_hours            working_hours       start_time       stop_time
sahil24c@gmail.com 2019-10-24 05:05:00 2019-10-24 05:50:00 2019-10-24 08:30:02 2019-10-24 19:25:02
magadum@gmail.com 2019-10-24 02:15:00 2019-10-24 08:39:59 2019-10-24 08:30:02 2019-10-24 19:25:01
yathink3@gmail.com 2019-10-24 01:30:00 2019-10-24 09:24:59 2019-10-24 08:30:02 2019-10-24 19:25:01
shelkeva@gmail.com 2019-10-24 00:30:00 2019-10-24 09:10:01 2019-10-24 08:45:01 2019-10-24 18:25:02
puruissim@gmail.com 2019-10-24 03:15:00 2019-10-24 07:19:59 2019-10-24 08:50:02 2019-10-24 19:25:01
sangita.awa@gmail.com 2019-10-24 01:55:00 2019-10-24 08:40:00 2019-10-24 08:50:01 2019-10-24 19:25:01
vaishusawan@gmail.com 2019-10-24 00:35:00 2019-10-24 09:55:00 2019-10-24 08:55:01 2019-10-24 19:25:01
you@example.com 2019-10-24 02:35:00 2019-10-24 08:04:59 2019-10-24 08:45:02 2019-10-24 19:25:01
samadhanma@gmail.com 2019-10-24 01:10:00 2019-10-24 08:39:59 2019-10-24 09:00:02 2019-10-24 18:50:01

我想找到平均工作时间。
select * from workinglogs where unix_timestamp(working_hours) < AVG(unix_timestamp(working_hours));

当我运行此查询时,它不起作用。

错误显示:-FAILED:SemanticException [错误10128]:Line 1:64 UDAF'AVG'尚不支持的位置

最佳答案

由于您使用的是UDAF,因此必须使用分组依据。选择每列(不要使用*),然后按选定列进行分组。

Select col1, col2, col3,......coln from workinglogs group by col1, col2, col3,......coln having unix_timestamp(working_hours) < AVG(unix_timestamp(working_hours));

关于hadoop - 如何在 hive 中获取时间戳的平均数(('yyyy-mm-dd hh:mm:ss')?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61815626/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com