gpt4 book ai didi

hadoop - 如何在 Hadoop Streaming 中使用 "typedbytes"或 "rawbytes"?

转载 作者:可可西里 更新时间:2023-11-01 14:19:00 27 4
gpt4 key购买 nike

我有一个问题可以通过“typedbytes”或“rawbytes”模式下的 Hadoop Streaming 解决,它允许用 Java 以外的语言分析二进制数据。 (如果没有这个,Streaming 会将一些字符(通常是\t 和\n)解释为分隔符并提示非 utf-8 字符。将我所有的二进制数据转换为 Base64 会减慢工作流程,从而达不到目的。)

这些二进制模式是由 HADOOP-1722 添加的.在调用 Hadoop Streaming 作业的命令行上,“-io rawbytes”让您将数据定义为 32 位整数大小,后跟该大小的原始数据,“-io typedbytes”让您将数据定义为 1 - 位零(这意味着原始字节),后跟 32 位整数大小,然后是该大小的原始数据。我已经创建了这些格式的文件(带有一条或多条记录),并通过检查/对照 typedbytes.py 的输出来验证它们的格式是否正确.我还尝试了所有可能的变体(大端、小端、不同的字节偏移等)。我正在使用 Hadoop 0.20 from CDH4 ,它具有实现 typedbytes 处理的类,并且在设置“-io”开关时进入这些类。

我使用“hadoop fs -copyFromLocal”将二进制文件复制到 HDFS。当我尝试将它用作 map-reduce 作业的输入时,它失败并在它尝试生成我指定长度(例如 3 个字节)的字节数组的行上出现 OutOfMemoryError。它一定是错误地读取了数字并尝试分配一个巨大的 block 。尽管如此,它确实设法向映射器获取记录(之前的记录?不确定),映射器将其写入标准错误以便我可以看到它。记录的开头总是有太多字节:例如,如果文件是“\x00\x00\x00\x00\x03hey”,映射器会看到“\x04\x00\x00\x00\x00\x00\x00\x00\x00\x07\x00\x00\x00\x08\x00\x00\x00\x00\x03hey”(可重现的位,虽然我看不到任何模式)。

来自 this talk 的第 5 页,我了解到有流式传输的“loadtb”和“dumptb”子命令,它们一步到位地复制到/从 HDFS 并将键入的字节包装/解包到 SequenceFile 中。当与“-inputformat org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat”一起使用时,Hadoop 正确解压缩了 SequenceFile,但随后以完全相同的方式误解了其中包含的类型字节。

此外,我找不到有关此功能的文档。 2 月 7 日(我通过电子邮件发送给自己),它在 streaming.html page on Apache 中被简要提及。 , 但此 r0.21.0 网页已被删除并且 the equivalent page for r1.1.1没有提到 rawbytes 或 typedbytes。

所以我的问题是:在 Hadoop Streaming 中使用 rawbytes 或 typedbytes 的正确方法是什么?有没有人让它工作?如果是这样,有人可以张贴食谱吗?对于任何想在 Hadoop Streaming 中使用二进制数据的人来说,这似乎都是一个问题,这应该是一个相当广泛的群体。

附言我注意到 Dumbo , Hadoopy , 和 rmr所有人都使用此功能,但应该有一种方法可以直接使用它,而无需通过基于 Python 或基于 R 的框架进行中介。

最佳答案

好的,我找到了一个有效的组合,但它很奇怪。

  1. 按照 documentation 在本地文件系统中准备一个有效的 typedbytes 文件或者通过模仿 typedbytes.py .

  2. 使用

    hadoop jar path/to/streaming.jar loadtb path/on/HDFS.sequencefile < local/typedbytes.tb

    将 typedbytes 包装在一个 SequenceFile 中,并一步将其放入 HDFS。

  3. 使用

    hadoop jar path/to/streaming.jar -inputformat org.apache.hadoop.mapred.SequenceFileAsBinaryInputFormat ...

    运行 map-reduce 作业,其中映射器从 SequenceFile 获取输入。请注意,-io typedbytes-D stream.map.input=typedbytes 应该被使用——明确要求 typedbytes 会导致我在问题中描述的误解。但不要担心:Hadoop Streaming 在其二进制记录边界上而不是在其“\n”字符上拆分输入。数据作为“原始数据”到达映射器,由“\t”和“\n”分隔,如下所示:

    1. 32位有符号整数,表示长度(注:无类型字符)
    2. 具有该长度的原始二进制 block :这是 key
    3. '\t'(制表符...为什么?)
    4. 32位有符号整数,表示长度
    5. 具有该长度的原始二进制 block :这就是值
    6. '\n'(换行符...?)
  4. 如果你想另外将原始数据从 mapper 发送到 reducer,添加

    -D stream.map.output=typedbytes -D stream.reduce.input=typedbytes

    到您的 Hadoop 命令行并将映射器的输出和缩减器的预期输入格式化为有效的类型字节。它们还交替使用键值对,但这次使用类型字符,不使用 '\t' 和 '\n'。 Hadoop Streaming 在二进制记录边界上正确拆分这些对,并按键分组。

我能找到的关于 stream.map.outputstream.reduce.input 的唯一文档是在 HADOOP-1722 中。 exchange,从 2009 年 2 月 6 日开始。(之前的讨论考虑了一种不同的格式参数化方式。)

本节不为输入提供强类型:在创建 SequenceFile 并使用 -inputformat 解释它的过程中,类型字符会丢失。但是,它确实提供了二进制记录边界的拆分,而不是 '\n',这是非常重要的,并且在映射器和缩减器之间提供了强类型。

关于hadoop - 如何在 Hadoop Streaming 中使用 "typedbytes"或 "rawbytes"?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15171514/

27 4 0