gpt4 book ai didi

java - 如何使用JAVA在Spark SQL中基于单列删除重复行

转载 作者:行者123 更新时间:2023-11-30 06:35:19 24 4
gpt4 key购买 nike

我需要了解如何使用 Java 在 Spark SQL 中基于单个数据帧中删除重复行。

与普通 SQL 一样,ROW_NUMBER () OVER (PARTITION BY col按 DESC 栏排序)。如何将这一步翻译成 Java 中的 Spark SQL?

最佳答案

您可以使用 dataframe.dropDuplicates("col1") 从数据框中删除重复项。它将删除 col1 中具有重复项的所有行。此 API 可从 Spark 2.x 开始使用。

关于java - 如何使用JAVA在Spark SQL中基于单列删除重复行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45286195/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com