gpt4 book ai didi

scala - SparkSQL - 直接读取 Parquet 文件

转载 作者:行者123 更新时间:2023-12-03 14:30:10 25 4
gpt4 key购买 nike

我正在从 Impala 迁移到 SparkSQL,使用以下代码读取表:

my_data = sqlContext.read.parquet('hdfs://my_hdfs_path/my_db.db/my_table')

我如何调用上面的 SparkSQL,以便它可以返回如下内容:
'select col_A, col_B from my_table'

最佳答案

从 parquet 文件创建 Dataframe 后,您必须将其注册为临时表才能运行 sql queries在上面。

val sqlContext = new org.apache.spark.sql.SQLContext(sc)

val df = sqlContext.read.parquet("src/main/resources/peopleTwo.parquet")

df.printSchema

// after registering as a table you will be able to run sql queries
df.registerTempTable("people")

sqlContext.sql("select * from people").collect.foreach(println)

关于scala - SparkSQL - 直接读取 Parquet 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41254011/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com