gpt4 book ai didi

mysql - 如何将数据从csv加载到Spark中的mysql数据库?

转载 作者:行者123 更新时间:2023-12-01 00:18:02 27 4
gpt4 key购买 nike

我想将数据从 csv 批量加载到 mySql。但是我可以看到将数据从 csv 插入到配置单元数据库的教程/逻辑。谁能帮助我使用 scala 在 spark 中实现上述集成?

最佳答案

这些教程不存在是有原因的。这个任务非常简单。这是最小的工作示例:

val dbStr = "jdbc:mysql://[host1][:port1][,[host2][:port2]]...[/[database]]"

spark
.read
.format("csv")
.option("header", "true")
.load("some/path/to/file.csv")
.write
.mode("overwrite")
.jdbc(dbStr, tablename, props)

关于mysql - 如何将数据从csv加载到Spark中的mysql数据库?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46968034/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com