gpt4 book ai didi

hadoop - 如何使用 Pyspark 从 Hive Context 调用用 Java 编写的 Hive UDF

转载 作者:可可西里 更新时间:2023-11-01 14:56:55 25 4
gpt4 key购买 nike

我在配置单元中使用 getLastProcessedVal2 UDF 从表中获取最新的分区。这个 UDF 是用 java 编写的。我想通过配置单元上下文使用来自 pyspark 的相同 UDF。

dfsql_sel_nxt_batch_id_ini=sqlContext.sql(''' select l4_xxxx_seee.**getLastProcessedVal2**("/data/l4/work/hive/l4__stge/proctl_stg","APP_AMLMKTE_L1","L1_AMLMKT_MDWE","TRE_EXTION","2.1")''')

错误:

ERROR exec.FunctionRegistry: Unable to load UDF class: java.lang.ClassNotFoundException:

最佳答案

开始你的pyspark壳为:

pyspark --jars /path/to.udf.jar <all-other-param>

使用 --jars 提交您的 pyspark 作业选项为:

spark-submit --jars /path/to/udf.jar <all-other-param>

关于hadoop - 如何使用 Pyspark 从 Hive Context 调用用 Java 编写的 Hive UDF,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38491483/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com