gpt4 book ai didi

amazon-web-services - 通过 AWS Glue Crawler 识别并存储在数据目录中的表异常

转载 作者:行者123 更新时间:2023-12-03 20:56:34 26 4
gpt4 key购买 nike

我正在努力建立公司的新数据湖,并试图找到最好和最新的选择来在这里工作。
所以,我找到了一个非常好的解决方案来使用 EMR + S3 + Athena + Glue。

我做的过程是:

1 - 运行 Apache Spark 脚本以生成由 Orc 存储的 S3 中按日期分区的 3000 万行。

2 - 运行 Athena 查询以创建外部表。

3 - 在 EMR 上检查了与 Glue 数据目录连接的表格,它运行良好。 Spark 和 Hive 都能够访问。

4 - 在按日期分区的其他文件夹中生成另外 3000 万行。兽人格式

5 - 运行标识新表的 Glue Crawler。添加到数据目录和 Athena 能够执行查询。但是 Spark 和 Hive 做不到。请参阅以下异常:

Spark Caused by: java.lang.ClassCastException: org.apache.hadoop.io.Text cannot be cast to org.apache.hadoop.hive.ql.io.orc.OrcStruct
hive Error: java.io.IOException: org.apache.hadoop.hive.ql.metadata.HiveException: Error evaluating audit_id (state=,code=0)
我正在检查是否有任何序列化问题,我发现了这个:

手动创建的表(配置):

输入格式 org.apache.hadoop.hive.ql.io.orc.OrcInputFormat

输出格式 org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat

Serde 序列化库 org.apache.hadoop.hive.ql.io.orc.OrcSerde

orc.compress 活泼的

使用 Glue Crawler 创建的表:

输入格式 org.apache.hadoop.mapred.TextInputFormat

输出格式 org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat

Serde 序列化库 org.apache.hadoop.hive.ql.io.orc.OrcSerde

因此,这不适用于从 Hive 或 Spark 读取。它适用于雅典娜。我已经更改了配置,但对 Hive 或 Spark 没有影响。

有人遇到过这个问题吗?

最佳答案

好,

几周后,我发布了这个问题,AWS 解决了这个问题。正如我上面所展示的,问题是真实存在的,这是 Glue 的一个错误。

由于它是一个新产品,有时仍然会出现一些问题。

但这已得到妥善解决。现在查看表的属性:

ROW FORMAT SERDE 
'org.apache.hadoop.hive.ql.io.orc.OrcSerde'
STORED AS INPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcInputFormat'
OUTPUTFORMAT
'org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat'

关于amazon-web-services - 通过 AWS Glue Crawler 识别并存储在数据目录中的表异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45748816/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com