gpt4 book ai didi

scala - 如何在Spark SQL中使用连字符对列名进行转义

转载 作者:行者123 更新时间:2023-12-03 15:09:12 43 4
gpt4 key购买 nike

我已经在Spark中导入了一个json文件并将其转换为表

myDF.registerTempTable("myDF")

然后,我想在此结果表上运行SQL查询
val newTable = sqlContext.sql("select column-1 from myDF")

但是,由于列 column-1的名称中存在连字符,这给了我一个错误。如何解决这是Spark SQL?

最佳答案

反引号(`)似乎有效,因此

val newTable = sqlContext.sql("select `column-1` from myDF")

至少在Spark v1.3.x中应该做到这一点。

关于scala - 如何在Spark SQL中使用连字符对列名进行转义,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30889630/

43 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com