gpt4 book ai didi

apache-spark - 不支持 spark sql 上下文中的 WITH 子句

转载 作者:行者123 更新时间:2023-12-04 15:47:21 24 4
gpt4 key购买 nike

我正在尝试使用 spark sql context 和以下查询从大型机表中获取记录

data_config.db2_qry= SELECT A.E_No,A.E_Name FROM Scheema.Employee A WITH UR

但是它抛出了下面的错误

com.ibm.db2.jcc.am.SqlSyntaxErrorException: DB2 SQL Error: SQLCODE=-199, SQLSTATE=42601, SQLERRMC=WITH;HAVING WHERE GROUP ORDER INTERSECT MINUS EXCEPT UNION ) , FETCH, DRIVER=4.19.26

但如果我直接在大型机控制台中运行相同的查询,它就可以正常工作。

如何在spark的sql上下文中使用WITH子句?

我使用的是 spark 2.4.0 版本

我正在检索如下记录

filt_cond = "(" + data_config.db2_qry + ") ref_id"

db2Df = sqlContext.read.format("jdbc").option("url", data_config.db2_url).option("driver", "com.ibm.db2.jcc.DB2Driver").option( "dbtable", filt_cond).option("user", data_config.db2_uname).option("password", data_config.db2_passwd).load()

最佳答案

问题出在发送到大型机 DB2 的查询中,用于推送“WITH UR”的 spark jdbc 方法选择需要更改。

这里使用的spark jdbc读取方法是

def jdbc(url: String, table: String, properties: Properties): DataFrame

在这个方法中,我们将以下查询推送到 db2 sql 引擎

"select a, b, c, d from table where d is not null with UR as table",这与在大型机 DB2 SQL 引擎中推送的查询不同。 spark 将 sql 发送为

select a, b, c from(select a, b, c from table where d is not null with UR)as table这就是麻烦开始的地方。

如果您想在大型机 SPUFI 或 QMF 或其他工具中看到相同的 sql 错误,请尝试通过 spark 运行构造的查询,而不是我们在代码中编写的查询。

为了克服这个问题,将“WITH UR”语法添加到 SQL,而不是上面的 spark jdbc 方法切换到以下允许我们构造谓词的 spark jdbc 方法。

 def jdbc(url: String, table: String, predicates: Array[String],
connectionProperties: Properties): DataFrame

将 sql 推送为 ""从表中选择 a、b、c、d 作为 tbl"

with predicates= Array("d is not null with UR")

在这种情况下,预期的查询被下推。希望这可以帮助您找到解决问题的方向。

在这里您可以看到有关 spark jdbc 读取方法的更多详细信息- Link

关于apache-spark - 不支持 spark sql 上下文中的 WITH 子句,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55193501/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com