gpt4 book ai didi

pyspark - Pyspark + Redis远程服务器

转载 作者:行者123 更新时间:2023-12-03 06:41:23 35 4
gpt4 key购买 nike

我有一台配置了Redis和Maven的服务器
然后我执行以下sparkSession

spark = pyspark
.sql
.SparkSession
.builder
.master('local[4]')
.appName('try_one_core')
.config("spark.redis.host", "XX.XXX.XXX.XXX")
.config("spark.redis.port", "6379")
.config("spark.redis.auth", "XXXX")
.getOrCreate()

我正在尝试连接到远程Redis服务器并从中写入/加载数据,但是当我尝试使用以下命令进行.save()时
df
.write
.format("org.apache.spark.sql.redis")
.option("table", "df")
.option("key.column", "case_id")
.save()

我收到以下错误:

py4j.protocol.Py4JJavaError: An error occurred while calling o327.save. : java.lang.ClassNotFoundException: Failed to find data source: org.apache.spark.sql.redis. Please find packages at http://spark.apache.org/third-party-projects.html



有没有解决办法?

最佳答案

除了@ fe2s答案之外,也可以直接从maven加载而不是从磁盘或网络存储中加载它

bin/pyspark --packages com.redislabs:spark-redis:2.4.0
--packages--jars参数也可以与普通 spark-submit命令一起使用

关于pyspark - Pyspark + Redis远程服务器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60303664/

35 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com