gpt4 book ai didi

apache-spark - group by 子句中的 sparkSQL Map 列

转载 作者:行者123 更新时间:2023-12-03 17:38:50 26 4
gpt4 key购买 nike

我正在将查询从 Hive 迁移到 SparkSQL,但是遇到了 Map 列的一个问题。

我的查询是

spark.sql(select col1,col2,my_map,count(*) from table group by col1,col2,my_map)

我得到的错误是
`my_map` cannot be used as a grouping expression because its data type map<string,string> is not an orderable data type.;

my_map 中的键总是不同的。我尝试使用已弃用的 HiveContext,但这并没有帮助。有什么解决方法吗?

谢谢!

最佳答案

答案在错误响应中。您需要将 my_map 变成可排序的数据类型! :)

关于apache-spark - group by 子句中的 sparkSQL Map 列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41525866/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com