gpt4 book ai didi

apache-spark - 是否可以从不同的 SparkSession 访问 DataFrame?

转载 作者:行者123 更新时间:2023-12-05 04:11:00 26 4
gpt4 key购买 nike

我可以从不同的 SparkSession 访问一个 DataFrame 吗?

最佳答案

tl;dr 不,不可能在 SparkSessions 之间共享 DataFrame。

DataFrame 存在于定义其可见性的单个 SparkSession 中(就像 SparkContext 中的 RDD)范围。拥有的 SparkSession 成为 DataFrame 的组成部分,您可以在 Dataset type constructor 的定义中看到它:

class Dataset[T] private[sql](
@transient val sparkSession: SparkSession, // <-- here
@DeveloperApi @InterfaceStability.Unstable @transient val queryExecution: QueryExecution,
encoder: Encoder[T])
extends Serializable {

您可以使用sparkSession 属性访问DataFrame 所属的SparkSession:

scala> val df = Seq(1,2,3).toDF("id")
df: org.apache.spark.sql.DataFrame = [id: int]

scala> df.sparkSession
res0: org.apache.spark.sql.SparkSession = org.apache.spark.sql.SparkSession@4832813d

scala> df.sparkSession == spark
res1: Boolean = true

关于apache-spark - 是否可以从不同的 SparkSession 访问 DataFrame?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43503788/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com