gpt4 book ai didi

apache-spark - 从JDBC创建spark数据帧时如何指定sql方言?

转载 作者:行者123 更新时间:2023-12-04 16:31:02 25 4
gpt4 key购买 nike

我在使用 Spark 通过自定义 JDBC 读取数据时遇到问题。我将如何覆盖通过 jdbc url 推断的 sql 方言?

有问题的数据库是 vitess ( https://github.com/youtube/vitess ),它运行一个 mysql 变体,所以我想指定一个 mysql 方言。
jdbc url 以 jdbc:vitess/开头

否则 DataFrameReader 会推断默认方言使用 """作为引用标识符。因此,通过 spark.read.jdbc 的查询被发送为

Select 'id', 'col2', col3', 'etc' from table



它选择字符串表示而不是列值
代替

Select id, col2, col3, etc from table

最佳答案

也许为时已晚。但接下来的答案将是:

创建您的自定义方言,就像我为 ClickHouse 数据库所做的一样(我的 jdbc 连接 url 看起来像这样 jdbc:clickhouse://localhost:8123)

 private object ClickHouseDialect extends JdbcDialect {
//override here quoting logic as you wish
override def quoteIdentifier(colName: String): String = colName

override def canHandle(url: String): Boolean = url.startsWith("jdbc:clickhouse")
}

并在您的代码中的某处注册它,如下所示:
JdbcDialects.registerDialect(ClickHouseDialect)

关于apache-spark - 从JDBC创建spark数据帧时如何指定sql方言?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40371433/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com