gpt4 book ai didi

apache-spark - 我们是否可以使用Spark将数据移动到Vertica,而不必将hadoop作为登台环境?

转载 作者:行者123 更新时间:2023-12-02 20:27:25 25 4
gpt4 key购买 nike

我正在尝试以流方式发送数据并将其加载到vertica中,我所引用的每一篇文章都谈到了使用hdfs首先保留DF或RDD中的数据,是否有一种无需使用Hadoop和任何其他数据存储即可移动数据的方法

最佳答案

不幸的是,与Vertica Connector for Apache Spark无关,该连接器确实要求将数据首先写入HDFS。

您可以使用df.write()从Spark直接保存到JDBC连接表。

import org.apache.spark.sql.{SQLContext, SaveMode}

df.write
.mode(SaveMode.Append)
.format("jdbc")
.option("url", "jdbc:vertica://vertica:5433/database")
.option("dbtable", "schema.table")
.option("user", "dbadmin")
.option("password", "password")
.save()

使用Spark版本2.2.1对我有用。 Vertica 9.1版。

关于apache-spark - 我们是否可以使用Spark将数据移动到Vertica,而不必将hadoop作为登台环境?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55413707/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com