gpt4 book ai didi

sql - 如何在Spark数据帧中分组和聚合后过滤?

转载 作者:行者123 更新时间:2023-12-04 23:45:38 24 4
gpt4 key购买 nike

我有一个带有架构的 Spark 数据帧 df ,如下所示:

[id:string, label:string, tags:string]

id | label | tag
---|-------|-----
1 | h | null
1 | w | x
1 | v | null
1 | v | x
2 | h | x
3 | h | x
3 | w | x
3 | v | null
3 | v | null
4 | h | null
4 | w | x
5 | w | x

(h、w、v 是标签。x 可以是任何非空值)

对于每个 id,最多有一个标签“h”或“w”,但可能有多个“v”。我想选择满足以下条件的所有 id:

每个 id 有:
1. 一个标签“h”及其标签 = null,
2. 一个标签 "w"及其标签 != null,
3. 每个id至少有一个标签“v”。

我想我需要创建三列检查上述每个条件。然后我需要按“id”做一个组。
val hCheck = (label: String, tag: String) => {if (label=="h" && tag==null) 1 else 0}
val udfHCheck = udf(hCheck)
val wCheck = (label: String, tag: String) => {if (label=="w" && tag!=null) 1 else 0}
val udfWCheck = udf(wCheck)
val vCheck = (label: String) => {if (label==null) 1 else 0}
val udfVCheck = udf(vCheck)

dfx = df.withColumn("hCheck", udfHCheck(col("label"), col("tag")))
.withColumn("wCheck", udfWCheck(col("label"), col("tag")))
.withColumn("vCheck", udfVCheck(col("label")))
.select("id","hCheck","wCheck","vCheck")
.groupBy("id")

不知何故,我需要将三列 {"hCheck","wCheck","vCheck"} 分组为列表 [x,0,0],[0,x,0],[0,0,x] 的向量。并检查这些向量是否包含所有三个 {[1,0,0],[0,1,0],[0,0,1]}

我还没有能够解决这个问题。并且可能有比这个更好的方法。希望有人能给我建议。谢谢

最佳答案

要将三个检查转换为向量,您可以执行以下操作:
具体你可以这样做:

val df1 = df.withColumn("hCheck", udfHCheck(col("label"), col("tag")))
.withColumn("wCheck", udfWCheck(col("label"), col("tag")))
.withColumn("vCheck", udfVCheck(col("label")))
.select($"id",array($"hCheck",$"wCheck",$"vCheck").as("vec"))

接下来 groupby 返回一个需要对其执行聚合的分组对象。特别是要获得所有向量,您应该执行以下操作:
    .groupBy("id").agg(collect_list($"vec"))

此外,您不需要 udfs 进行各种检查。您可以使用列语义来做到这一点。例如 udfHCheck 可以写成:
with($"label" == lit("h") && tag.isnull 1).otherwise(0)

顺便说一句,你说你想要一个标签“v”,但在 vcheck 中你只检查标签是否为空。

更新:替代解决方案

再次查看这个问题时,我会做这样的事情:
val grouped = df.groupBy("id", "label").agg(count("$label").as("cnt"), first($"tag").as("tag"))
val filtered1 = grouped.filter($"label" === "v" || $"cnt" === 1)
val filtered2 = filtered.filter($"label" === "v" || ($"label" === "h" && $"tag".isNull) || ($"label" === "w" && $"tag".isNotNull))
val ids = filtered2.groupBy("id").count.filter($"count" === 3)

这个想法是首先我们对 id 和 label 进行分组,以便我们获得有关组合的信息。我们收集的信息是有多少个值 (cnt) 和第一个元素(与哪个无关)。

现在我们做两个过滤步骤:
1. 我们正好需要一个 h 和一个 w 以及任意数量的 v,所以第一个过滤器为我们提供了这些情况。
2. 我们确保每个案例都符合所有规则。

现在我们只有匹配规则的 id 和 label 的组合,所以为了使 id 合法,我们需要正好有三个 label 实例。这导致第二个 groupby,它简单地计算与规则匹配的标签数量。我们只需要三个是合法的(即匹配所有规则)。

关于sql - 如何在Spark数据帧中分组和聚合后过滤?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43402111/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com