gpt4 book ai didi

apache-spark-sql - 在spark sql中选择除特定列之外的所有内容

转载 作者:行者123 更新时间:2023-11-30 23:49:57 26 4
gpt4 key购买 nike

我想选择表中除 StudentAddress 之外的所有列,因此我编写了以下查询:

select `(StudentAddress)?+.+` from student;

它在 Squirrel Sql 客户端中出现以下错误。
org.apache.spark.sql.AnalysisException: 无法解析“ (StudentAddress)?+.+” ' 给定输入列

最佳答案

您可以使用 drop() DataFrame API 中的方法来删除特定列,然后选择所有列。

例如:

val df = hiveContext.read.table("student")
val dfWithoutStudentAddress = df.drop("StudentAddress")

关于apache-spark-sql - 在spark sql中选择除特定列之外的所有内容,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43644450/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com