gpt4 book ai didi

scala - Spark Dataset聚合类似于RDD aggregate(zero)(accum, combiner)

转载 作者:行者123 更新时间:2023-12-04 02:07:08 36 4
gpt4 key购买 nike

RDD 有一个非常有用的方法 aggregate,它允许累加一些零值并将其跨分区组合。有没有办法用 Dataset[T] 做到这一点。就我通过 Scala 文档看到的规范而言,实际上没有任何东西可以做到这一点。即使是 reduce 方法也只允许对以 T 作为两个参数的二元运算进行操作。有什么理由吗?如果有任何东西能够做到这一点?

非常感谢!

VK

最佳答案

有两个不同的类可用于在 Dataset API 中实现类似aggregate 的行为:

两者都提供额外的终结方法(分别为evaluatefinish),用于生成最终结果,可用于全局聚合和按键聚合。

关于scala - Spark Dataset聚合类似于RDD aggregate(zero)(accum, combiner),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42378806/

36 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com