gpt4 book ai didi

hadoop - 有人可以向我解释 orcfiledump 的输出吗?

转载 作者:可可西里 更新时间:2023-11-01 15:24:28 27 4
gpt4 key购买 nike

我的表 test_orc 包含(对于一个分区):

col1 col2 part1
abc def 1
ghi jkl 1
mno pqr 1
koi hai 1
jo pgl 1
hai tre 1

通过运行

hive --orcfiledump /hive/user.db/test_orc/part1=1/000000_0

我得到以下信息:

Structure for /hive/a0m01lf.db/test_orc/part1=1/000000_0 .  
2018-02-18 22:10:24 INFO: org.apache.hadoop.hive.ql.io.orc.ReaderImpl - Reading ORC rows from /hive/a0m01lf.db/test_orc/part1=1/000000_0 with {include: null, offset: 0, length: 9223372036854775807} .
Rows: 6 .
Compression: ZLIB .
Compression size: 262144 .
Type: struct<_col0:string,_col1:string> .

Stripe Statistics:
Stripe 1:
Column 0: count: 6 .
Column 1: count: 6 min: abc max: mno sum: 17 .
Column 2: count: 6 min: def max: tre sum: 18 .

File Statistics:
Column 0: count: 6 .
Column 1: count: 6 min: abc max: mno sum: 17 .
Column 2: count: 6 min: def max: tre sum: 18 .

Stripes:
Stripe: offset: 3 data: 58 rows: 6 tail: 49 index: 67 .
Stream: column 0 section ROW_INDEX start: 3 length 9 .
Stream: column 1 section ROW_INDEX start: 12 length 29 .
Stream: column 2 section ROW_INDEX start: 41 length 29 .
Stream: column 1 section DATA start: 70 length 20 .
Stream: column 1 section LENGTH start: 90 length 12 .
Stream: column 2 section DATA start: 102 length 21 .
Stream: column 2 section LENGTH start: 123 length 5 .
Encoding column 0: DIRECT .
Encoding column 1: DIRECT_V2 .
Encoding column 2: DIRECT_V2 .

条纹部分是什么意思?

最佳答案

首先,让我们看看 ORC 文件是什么样的。

enter image description here

现在上图和您的问题中使用了一些关键字!

  • Stripe - 存储在 ORC 文件中的一大块数据。任何 ORC 文件都被分成这些 block ,称为 strip ,每个 block 大小为 250 MB,其中包含索引数据、实际数据和存储在该 strip 中的实际数据的一些元数据。
  • Compression - 用于压缩存储数据的压缩编解码器。 ZLIB 是 ORC 的默认值
  • 索引数据 - 包括每列的最小值和最大值以及每列中的行位置。 (也可以包括位字段或布隆过滤器。)行索引条目提供偏移量,可以在解压缩 block 中查找正确的压缩 block 和字节。 请注意,ORC 索引仅用于选择 strip 和行组,而不用于回答查询。

  • 行数据 - 实际数据。用于表扫描。

  • Stripe Footer - Stripe 页脚包含每一列的编码和流的目录,包括它们的位置。为了描述每个流,ORC 以字节为单位存储流的种类、列 ID 和流的大小。每个流中存储内容的详细信息取决于列的类型和编码。

  • Postscript - 保存压缩参数和压缩页脚的大小。

  • 文件页脚 - 文件页脚包含文件中的 strip 列表、每个 strip 的行数以及每列的数据类型。它还包含列级聚合计数、最小值、最大值和总和。

现在!谈论您从 orcfiledump 的输出。

  1. 首先是有关文件的一般信息。名称、位置、压缩编解码器、压缩大小等。
  2. strip 统计会列出你的ORC文件中的所有 strip 及其对应的信息。您可以查看有关整数列的计数和一些统计信息,例如最小值、最大值、总和等。
  3. 文件统计与#2 类似。只针对完整文件,而不是 #2 中的每个 strip 。
  4. 最后一部分,Stripe 部分,讨论文件中的每一列以及每一列的相应索引信息。

此外,您可以将各种选项与 orcfiledump 一起使用以获得“所需”结果。遵循方便的指南。

// Hive version 0.11 through 0.14:
hive --orcfiledump <location-of-orc-file>

// Hive version 1.1.0 and later:
hive --orcfiledump [-d] [--rowindex <col_ids>] <location-of-orc-file>

// Hive version 1.2.0 and later:
hive --orcfiledump [-d] [-t] [--rowindex <col_ids>] <location-of-orc-file>

// Hive version 1.3.0 and later:
hive --orcfiledump [-j] [-p] [-d] [-t] [--rowindex <col_ids>] [--recover] [--skip-dump]
[--backup-path <new-path>] <location-of-orc-file-or-directory>

遵循上述命令中使用的选项的快速指南。

  • 在命令中指定 -d 将导致它转储 ORC 文件数据而不是元数据(Hive 1.1.0 及更高版本)。
  • 使用逗号分隔的列 ID 列表指定 --rowindex 将使它打印指定列的行索引,其中 0 是包含所有列的顶级结构,1 是第一个列 ID(Hive 1.1.0 及更高版本)。
  • 在命令中指定 -t 将打印时区 ID作家。
  • 在命令中指定 -j 将以 JSON 格式打印 ORC 文件元数据格式。要漂亮地打印 JSON 元数据,请将 -p 添加到命令中。
  • 在命令中指定 --recover 将恢复损坏的 ORC 文件由 Hive 流生成。
  • 指定 --skip-dump 和 --recover 将执行恢复不转储元数据。
  • 使用新路径指定 --backup-path 将使恢复工具将损坏的文件移动到指定的备份路径(默认:/tmp)。
  • 是 ORC 文件的 URI。
  • 是 ORC 文件的 URI 或者目录。从 Hive 1.3.0 开始,这个 URI 可以是一个目录包含 ORC 文件。

希望对您有所帮助!

关于hadoop - 有人可以向我解释 orcfiledump 的输出吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48860476/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com