gpt4 book ai didi

dataframe - 如何在执行 spark dataframe.write().insertInto ("table"时确保正确的列顺序)?

转载 作者:行者123 更新时间:2023-12-04 04:22:54 25 4
gpt4 key购买 nike

我正在使用以下代码将数据帧数据直接插入到数据 block 增量表中:

eventDataFrame.write.format("delta").mode("append").option("inferSchema","true").insertInto("some delta table"))

但是如果创建 detla 表的列顺序与数据框列顺序不同,值会变得困惑,然后不会写入正确的列。如何维持秩序?是否有执行此操作的标准方法/最佳实践?

最佳答案

这很简单-

`

####in pyspark 

df= spark.read.table("TARGET_TABLE") ### table in which we need to insert finally

df_increment ## the data frame which has random column order which we want to insert into TARGET_TABLE
df_increment =df_increment.select(df.columns)
df_increment.write.insertInto("TARGET_TABLE")

`

所以对你来说它会

parent_df=   spark.read.table("some delta table") 
eventDataFrame.select(parent_df.columns).write.format("delta").mode("append").option("inferSchema","true").insertInto("some delta table"))

关于dataframe - 如何在执行 spark dataframe.write().insertInto ("table"时确保正确的列顺序)?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58656660/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com