gpt4 book ai didi

apache-spark - 如何检查spark sql映射类型中是否存在键

转载 作者:行者123 更新时间:2023-12-03 23:21:46 25 4
gpt4 key购买 nike

所以我有一个包含一列 map 类型的表(键和值都是字符串)。

我想像这样编写 spark sql 来检查 map 中是否存在给定的键。

select count(*) from my_table where map_contains_key(map_column, "testKey")

我找不到任何可以执行此操作的现有 spark sql 函数。

有任何想法吗?

谢谢

最佳答案

可以使用这样的构造:

df.where($"map_column"("testKey").isNotNull)

对于纯 sql:
spark.sql("select * from my_table where mapColumn[\"testKey\"] is not null")

关于apache-spark - 如何检查spark sql映射类型中是否存在键,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52227439/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com