gpt4 book ai didi

java - Spark DataFrame - 使用 Java API 选择列列表

转载 作者:行者123 更新时间:2023-12-01 07:01:21 25 4
gpt4 key购买 nike

我正在尝试使用 Java API 从 DataFrame 中选择列列表。

示例 Java 代码:

List<String> colList = Arrays.asList(new String[] { "column1", "column2", "column3" });
df.selectExpr((String[])colList.toArray()).show();

在Java API中,我必须使用selectExpr而不是select。是否有其他方法使用 Java API 选择列列表。

但是在 Scala 中,我可以执行如下操作。

Scala 代码示例:

val colList = List("column1", "column2", "column3")
df.select(colList.head, colList.tail: _*).show

最佳答案

您可以使用字符串数组:

String[] colList =  { "column1", "column2", "column3" };
String first = colList[0];
String[] rest = Arrays.copyOfRange(colList, 1, colList.length);

logData.select(first, rest);

数组:

import static org.apache.spark.sql.functions.col;
import org.apache.spark.sql.Column;

Column[] colList = { col("column1"), col("column2"), col("column3") };
logData.select(colList);

关于java - Spark DataFrame - 使用 Java API 选择列列表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47773217/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com