gpt4 book ai didi

apache-spark - 在 Spark 2.4 中,Spark JDBC 是否允许将内置函数指定为 partitionColumn?

转载 作者:行者123 更新时间:2023-12-01 13:15:35 25 4
gpt4 key购买 nike

我正在尝试将 spark 版本 2.2.1 更改为 2.4.0
在 spark 2.2 中,以下工作正常。

val query = "(select id, myPartitionColumnString from myTable) query"
val splitColumn = "CHECKSUM(myPartitionColumnString)"
spark.read.jdbc(jdbcUrl, query, splitColumn, lowerBound, upperBound, numPartitions, connectionProperties)

但是在 spark 2.4 中,它会导致这样的错误
User-defined partition column CHECKSUM(myPartitionColumnString) not found in the JDBC relation: struct<id: int, myPartitionColumnString: string>

我确定 CheckSum 已定义。

最佳答案

他们在引入“通过直接 SQL 查询”功能时删除了它。 2.4.0 中引入了重大更改。这更像是一个黑客,现在没有办法实现这一点。你仍然可以在 2.3 中获得它

PS:如果有人找到另一种方法来实现相同的行为,请与我联系,我很感兴趣

关于apache-spark - 在 Spark 2.4 中,Spark JDBC 是否允许将内置函数指定为 partitionColumn?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55437941/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com