gpt4 book ai didi

python - 使用 python 和 pyspark 连接到 jupyterhub 笔记本中的 Snowflake

转载 作者:太空宇宙 更新时间:2023-11-03 19:51:46 24 4
gpt4 key购买 nike

我正在尝试通过 jupyterhub 笔记本中的 Spark 连接到 Snowflake,但无法这样做,因为我无法根据 Snowflake 的文档加载 JDBC 连接器: https://docs.snowflake.net/manuals/user-guide/spark-connector-use.html#using-the-connector-with-python我已经能够安装连接器 Snowflake-connector-python

有没有好的方法可以使用 JDBC 连接器启动 jupyter 内核?这是我尝试运行的代码,它是从雪花的文档复​​制粘贴的:

from pyspark import SparkConf, SparkContext
from pyspark.sql import SQLContext
from pyspark.sql.types import *
from pyspark import SparkConf, SparkContext

sc = SparkContext("local", "Simple App")
spark = SQLContext(sc)
spark_conf = SparkConf().setMaster('local').setAppName('<YOUR_APP_NAME>')

# Set options below
sfOptions = {
"sfURL" : "<account_name>.snowflakecomputing.com",
"sfAccount" : "<account_name>",
"sfUser" : "<user_name>",
"sfPassword" : "<password>",
"sfDatabase" : "<database>",
"sfSchema" : "<schema>",
"sfWarehouse" : "<warehouse>",
}

SNOWFLAKE_SOURCE_NAME = "net.snowflake.spark.snowflake"

df = spark.read.format(SNOWFLAKE_SOURCE_NAME) \
.options(**sfOptions) \
.option("query", "select * from MYTABLE) \
.load()

df.show()

最佳答案

尝试像这样加载:

spark = SparkSession \ .builder \ .config("spark.jars", "file:///snowflake-jdbc-3.8.0.jar,file:///spark-snowflake_2.11-2.4.13-spark_2.4.jar") \ .config("spark.repl.local.jars", "file:///snowflake-jdbc-3.8.0.jar,file:///spark-snowflake_2.11-2.4.13-spark_2.4.jar") \ .config("spark.sql.catalogImplementation", "in-memory") \ .getOrCreate()

如果没有在类路径中设置,则加载内存中的 jar,否则它将找不到所需的 jar,并会抛出错误。另一种方法是使用上述两个 jar 设置类路径。

关于python - 使用 python 和 pyspark 连接到 jupyterhub 笔记本中的 Snowflake,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59785924/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com