gpt4 book ai didi

apache-spark - 如何使用 Spark(Java) 在数据集的所有列上并行应用相同的函数

转载 作者:行者123 更新时间:2023-12-01 04:48:39 25 4
gpt4 key购买 nike

我有一个具有一些分类特征的数据集。我正在尝试对 Spark 框架中的所有这些分类功能应用完全相同的功能。我的第一个假设是我可以将每个功能的操作与其他功能的操作并行化。但是我不知道是否可能(阅读后感到困惑 thisthis )。

例如,假设我的数据集如下:

feature1, feature2, feature3
blue,apple,snake
orange,orange,monkey
blue,orange,horse

我想分别计算每个特征的每个类别的出现次数。例如对于特征 1 (blue=2, orange=1)

最佳答案

TL;博士 Spark SQL 的数据帧不是按列拆分而是按行拆分,因此除非您使用 select 拆分源数据集,否则 Spark 处理每个任务的行组(不是列)。 - 类似运算符。

如果你想:

count the number of occurrences of each category for each feature, separately



只需使用 groupBycount (也许使用 join )或使用窗口(使用窗口聚合函数)。

关于apache-spark - 如何使用 Spark(Java) 在数据集的所有列上并行应用相同的函数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44193287/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com