gpt4 book ai didi

java - 如何在 GroupBy 操作后从 spark DataFrame 列中收集字符串列表?

转载 作者:搜寻专家 更新时间:2023-10-31 19:37:28 26 4
gpt4 key购买 nike

描述的解决方案here (by zero323)非常接近我想要的两个曲折:

  1. 如何用 Java 实现?
  2. 如果该列有一个字符串列表而不是单个字符串,并且我想在 GroupBy(其他列)之后将所有此类列表收集到一个列表中怎么办?

我正在使用 Spark 1.6 并尝试使用

org.apache.spark.sql.functions.collect_list(Column col) 如该问题的解决方案中所述,但出现以下错误

Exception in thread "main" org.apache.spark.sql.AnalysisException: undefined function collect_list; at org.apache.spark.sql.catalyst.analysis.SimpleFunctionRegistry$$anonfun$2.apply(FunctionRegistry.scala:65) at org.apache.spark.sql.catalyst.analysis.SimpleFunctionRegistry$$anonfun$2.apply(FunctionRegistry.scala:65) at scala.Option.getOrElse(Option.scala:121)

最佳答案

您看到的错误建议您使用纯 SQLContext 而不是 HiveContextcollect_list 是一个 Hive UDF,因此需要 HiveContext。它也不支持复杂的列,所以唯一的选择是先分解:

import org.apache.spark.api.java.*;
import org.apache.spark.SparkConf;
import org.apache.spark.sql.SQLContext;
import org.apache.spark.sql.hive.HiveContext;
import java.util.*;
import org.apache.spark.sql.DataFrame;
import static org.apache.spark.sql.functions.*;

public class App {
public static void main(String[] args) {
JavaSparkContext sc = new JavaSparkContext(new SparkConf());
SQLContext sqlContext = new HiveContext(sc);
List<String> data = Arrays.asList(
"{\"id\": 1, \"vs\": [\"a\", \"b\"]}",
"{\"id\": 1, \"vs\": [\"c\", \"d\"]}",
"{\"id\": 2, \"vs\": [\"e\", \"f\"]}",
"{\"id\": 2, \"vs\": [\"g\", \"h\"]}"
);
DataFrame df = sqlContext.read().json(sc.parallelize(data));
df.withColumn("vs", explode(col("vs")))
.groupBy(col("id"))
.agg(collect_list(col("vs")))
.show();
}
}

虽然它不太可能表现良好。

关于java - 如何在 GroupBy 操作后从 spark DataFrame 列中收集字符串列表?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35324049/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com