gpt4 book ai didi

scala - 如何通过 Spark 数据帧使用 FASTLOAD 将数据加载到 Teradata 表中

转载 作者:行者123 更新时间:2023-12-04 17:55:22 24 4
gpt4 key购买 nike

我正在尝试将数据插入到 teradata 表中。我在 Spark 数据框中有数据。我想使用 JDBC 驱动程序将这个包含超过 2500 万条记录的数据框插入到 Teradata 表中。

我该怎么做?

我正在使用以下配置。

val connectionProperties = new java.util.Properties

connectionProperties.setProperty("driver", "com.teradata.jdbc.TeraDriver")
connectionProperties.setProperty("password","PASSWORD")
connectionProperties.setProperty("TMODE","TERA")
connectionProperties.setProperty("TYPE","FASTLOAD")
df.write.mode("append").jdbc("jdbc:teradata://10.196.51.107/user=USERNAME","DBname.emp_table", connectionProperties)

这不是在插入 int teradata 时使用 FASTLOAD。这是正确的方法吗?

最佳答案

你应该使用 FASTEXPORT 而不是 FASTLOAD

关于scala - 如何通过 Spark 数据帧使用 FASTLOAD 将数据加载到 Teradata 表中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45069159/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com