gpt4 book ai didi

apache-spark - na().drop() 和 filter(col.isNotNull) 之间的区别 (Apache Spark)

转载 作者:行者123 更新时间:2023-12-03 07:27:23 28 4
gpt4 key购买 nike

df.na().drop()df.filter(df.col("onlyColumnInOneColumnDataFrame").isNotNull() && !df. 之间的语义有什么区别吗? col("onlyColumnInOneColumnDataFrame").isNaN()) 其中 dfApache Spark Dataframe

或者,如果第一个值之后不返回 null (不是字符串 null,而只是一个 null 值),我是否应该将其视为错误 nullonlyColumnInOneColumnDataFrame 第二个是吗?

编辑:还添加了 !isNaN()onlyColumnInOneColumnDataFrame 是给定Dataframe 中的唯一列。假设它的类型是Integer

最佳答案

使用df.na.drop(),您可以删除包含任何 null 或 NaN 值的行。

使用df.filter(df.col("onlyColumnInOneColumnDataFrame").isNotNull()),您可以删除那些仅在列onlyColumnInOneColumnDataFrame中为空的行。

如果您想实现同样的目标,那就是df.na.drop(["onlyColumnInOneColumnDataFrame"])

关于apache-spark - na().drop() 和 filter(col.isNotNull) 之间的区别 (Apache Spark),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35477472/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com