gpt4 book ai didi

scala - reduceBykey Spark 维护秩序

转载 作者:行者123 更新时间:2023-12-01 09:21:49 24 4
gpt4 key购买 nike

我的输入数据集看起来像

id1, 10, v1
id2, 9, v2
id2, 34, v3
id1, 6, v4
id1, 12, v5
id2, 2, v6

我想要输出

id1; 6,v4 | 10,v1 | 12,v5
id2; 2,v6 | 9,v2 | 34,v3

是这样的

id1: array[num(i),value(i)] where num(i) should be sorted

我尝试过的:

  • 获取id和第二列作为key,sortByKey,但是因为是字符串,排序不像 int 那样发生,而是作为字符串发生

  • 获取第二列作为key,sortByKey,然后获取id和key以及第二列值中的列,reduceByKey。但在这种情况下,虽然做reduceByKey;订单不被保留。甚至 groupByKey 也没有阻止命令。实际上这是意料之中的。

任何帮助将不胜感激。

最佳答案

由于您没有提供有关输入类型的任何信息,我假设它是 RDD[(String, Int, String)]:

val rdd = sc.parallelize(
("id1", 10, "v1") :: ("id2", 9, "v2") ::
("id2", 34, "v3") :: ("id1", 6, "v4") ::
("id1", 12, "v5") :: ("id2", 2, "v6") :: Nil)

rdd
.map{case (id, x, y) => (id, (x, y))}
.groupByKey
.mapValues(iter => iter.toList.sortBy(_._1))
.sortByKey() // Optional if you want id1 before id2

编辑:

要获得您描述的输出 in the comments您可以将传递给 mapValues 的函数替换为以下内容:

def process(iter: Iterable[(Int, String)]): String = {
iter.toList
.sortBy(_._1)
.map{case (x, y) => s"$x,$y"}
.mkString("|")
}

关于scala - reduceBykey Spark 维护秩序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31843391/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com