gpt4 book ai didi

r - SparkR 合并而不创建重复列

转载 作者:行者123 更新时间:2023-12-04 09:55:35 34 4
gpt4 key购买 nike

我决定提出这个问题是因为 the answer provided to a very similar问题不适用于我的场景:

我想合并这两个 SparkR 数据帧 df1

col1    col2    
1 11
2 22
3 33
4 44

和df2

col1    col2    newcol
1 11 401
2 22 402
3 33 403
4 44 404

dfs 应合并到第 1 列和第 2 列。我尝试了上面链接中建议的所有步骤(例如,省略“by”语句),但结果总是如下所示:

col1_x  col2_x  col1_y  col2_y  newcol
1 11 1 11 401
2 22 2 22 402
3 33 3 33 403
4 44 4 44 404

我不想有重复的列,现在我必须手动删除 col1_y、col2_y 并将 col1_x、col2_x 重命名为只有 col1、col2 和 newcol 作为结果:

df <- merge(df1, df2)  # <- how can I change this?
df$col1_y <- NULL
df$col2_y <- NULL
df <- withColumnRenamed(df, "col1_x", "col1")
df <- withColumnRenamed(df, "col2_x", "col2")

我尝试了使用 by、by.x 和 by.y 语句的各种组合,但都没有奏效。 有没有一种方法可以通过省略其中一个步骤来简化这个繁琐的校正链?谢谢!

最佳答案

这是预期的行为,一种选择是从生成的 DataFrameselect() 相关列:

library(magrittr) 

# We'll use join to avoid suffixes '_x' & '_y'
join(df1,df2,(df1$col1==df2$col1)&(df1$col2==df2$col2)) %>%
select(df1$col1,df1$col2,df2$newcol) %>%
showDF()
#+----+----+------+
#|col1|col2|newcol|
#+----+----+------+
#| 1|11.0| 401|
#| 2|22.0| 402|
#| 3|33.0| 403|
#| 4|55.0| 404|
#+----+----+------+

关于r - SparkR 合并而不创建重复列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38847967/

34 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com