gpt4 book ai didi

scala - 使用 Scala 在 Flink 中从 JDBC 源创建数据集

转载 作者:行者123 更新时间:2023-12-01 13:46:05 24 4
gpt4 key购买 nike

我正在尝试在 Flink 中使用 Scala 从 JDBC 源创建数据集,所有文档/其他 SO 问题似乎都使用 Java。我在使用泛型类型时遇到了一些问题。

到目前为止,我有:

val inputFormat = JDBCInputFormat.buildJDBCInputFormat()
.setDrivername(driver)
.setDBUrl(url)
.setUsername(username)
.setPassword(password)
.setQuery("select col_a,col_b from my_table")
.finish()

env.createInput(inputFormat)

这给出了一个错误:

error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0]
env.createInput(inputFormat)

我也试过

var tuple = ("",0)
inputFormat.nextRecord(tuple)

错误原因:

error: type mismatch;
found : (String, Int)
required: ?0

最后我尝试了:

inputFormat.nextRecord(_)

结果是:

found   : x$1.type (with underlying type ?0)
required: ?0

所以问题是我如何使用 Scala 在 Flink 中设置 JDBC 连接/我哪里错了?

最佳答案

修复第一个问题:

error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0]
env.createInput(inputFormat)

需要添加如下导入语句

import org.apache.flink.api.scala._ 

关于scala - 使用 Scala 在 Flink 中从 JDBC 源创建数据集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36067881/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com