gpt4 book ai didi

hadoop - Spark SQL saveAsTable 返回空结果

转载 作者:可可西里 更新时间:2023-11-01 14:36:31 26 4
gpt4 key购买 nike

我正在使用以下代码在 Spark SQL 中创建数据/将数据插入到 Hive 表中:

val sc = SparkSession
.builder()
.appName("App")
.master("local[2]")
.config("spark.sql.warehouse.dir", "file:///tmp/spark-warehouse")
.enableHiveSupport()
.getOrCreate()

// actual code

result.createOrReplaceTempView("result")
result.write.format("parquet").partitionBy("year", "month").mode(SaveMode.Append).saveAsTable("tablename")

运行没有错误。 result.show(10) 证实了这一点。输入文件是本地FS上的csv。

它在 ./spark-warehouse/tablename/ 下创建 parquet 文件,并使用正确的创建表语句在 hive 中创建表。

git:(master) ✗ tree
.
└── tablename
├── _SUCCESS
└── year=2017
└── month=01
├── part-r-00013-abaea338-8ed3-4961-8598-cb2623a78ce1.snappy.parquet
├── part-r-00013-f42ce8ac-a42c-46c5-b188-598a23699ce8.snappy.parquet
├── part-r-00018-abaea338-8ed3-4961-8598-cb2623a78ce1.snappy.parquet
└── part-r-00018-f42ce8ac-a42c-46c5-b188-598a23699ce8.snappy.parquet

hive :

hive> show create table tablename;
OK
CREATE TABLE `tablename`(
`col` array<string> COMMENT 'from deserializer')
ROW FORMAT SERDE
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
WITH SERDEPROPERTIES (
'path'='file:/Users/IdeaProjects/project/spark-warehouse/tablename')
STORED AS INPUTFORMAT
'org.apache.hadoop.mapred.SequenceFileInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat'
LOCATION
'file:/tmp/spark-warehouse/tablename'
TBLPROPERTIES (
'EXTERNAL'='FALSE',
'spark.sql.sources.provider'='parquet',
'spark.sql.sources.schema.numPartCols'='2',
'spark.sql.sources.schema.numParts'='1',
'spark.sql.sources.schema.part.0'='{
// fields
}',
'spark.sql.sources.schema.partCol.0'='year',
'spark.sql.sources.schema.partCol.1'='month',
'transient_lastDdlTime'='1488157476')

但是,表是空的:

hive> select count(*) from tablename;
...
OK
0
Time taken: 1.89 seconds, Fetched: 1 row(s)

使用的软件:带有 spark-sql 和 spark-hive_2.10 的 Spark 2.1.0、Hive 2.10 和 mysql metastore、Hadoop 2.70、macOS 10.12.3

最佳答案

Spark SQL 分区与 Hive 不兼容。 SPARK-14927 记录了此问题.

作为推荐的解决方法,您可以使用 Hive 创建分区表,并且仅从 Spark 插入。

关于hadoop - Spark SQL saveAsTable 返回空结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42476731/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com