gpt4 book ai didi

apache-spark - 写入配置单元表后停止自动取消保留数据框

转载 作者:行者123 更新时间:2023-12-05 06:25:49 25 4
gpt4 key购买 nike

即使在写入配置单元表后我也想保留一个数据框。

<change data capture code> 
df.persist(StorageLevel.MEMORY_AND_DISK)
df.count() #count is 100
df.write.mode("append").insertInto("schema.table")
df.count() #count is 0 || because it's recalculating change data capture part

这里似乎 df 在写入 hive 后变得不持久。这种行为是预期的吗?如果是,我们该如何解决?

最佳答案

将df转为rdd后可以持久化rdd。

存储模式以便我们可以将 rdd 转换回 df

rdd_schema = df.schema
df_rdd = df.rdd.persist(StorageLevel.MEMORY_AND_DISK)

df.count() #count is 100
df.write.mode("append").insertInto("schema.table")

现在 df 已经消失了,所以我们可以使用持久化的 rdd 来取回 df

df_persisted = spark.createDataFrame(df_rdd, schema=rdd_schema)
df_persisted.count() #count is 100 || This will calculate from persisted rdd

关于apache-spark - 写入配置单元表后停止自动取消保留数据框,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56687359/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com