gpt4 book ai didi

hadoop - 如何使用接受多列作为参数的 java 为配置单元编写 UDAF?

转载 作者:可可西里 更新时间:2023-11-01 16:37:24 28 4
gpt4 key购买 nike

我想根据日期、var_currecy_code、 fxd_crncy_code。

我们的 hive 表中有所有数据,现在我们需要使用 hive UDAF 根据最大​​日期和上面提到的更多输入来计算 currency_rate。

最佳答案

Hive UDF 可以接受元组作为参数。

在函数中,您检查元组的长度,并为您的逻辑提取必要的顺序

关于hadoop - 如何使用接受多列作为参数的 java 为配置单元编写 UDAF?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49249626/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com