gpt4 book ai didi

scala - 从Spark作业中调用JDBC进行Impala/Hive并创建表

转载 作者:行者123 更新时间:2023-12-04 22:04:34 24 4
gpt4 key购买 nike

我正在尝试在scala中编写一个spark作业,该作业将打开与Impala的jdbc连接,并让我创建一个表并执行其他操作。

我该怎么做呢?任何例子都会有很大帮助。
谢谢!

最佳答案

val JDBCDriver = "com.cloudera.impala.jdbc41.Driver"
val ConnectionURL = "jdbc:impala://url.server.net:21050/default;auth=noSasl"

Class.forName(JDBCDriver).newInstance
val con = DriverManager.getConnection(ConnectionURL)
val stmt = con.createStatement()
val rs = stmt.executeQuery(query)

val resultSetList = Iterator.continually((rs.next(), rs)).takeWhile(_._1).map(r => {
getRowFromResultSet(r._2) // (ResultSet) => (spark.sql.Row)
}).toList

sc.parallelize(resultSetList)

关于scala - 从Spark作业中调用JDBC进行Impala/Hive并创建表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26634853/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com