gpt4 book ai didi

hadoop - Apache pig : How to use LoadCaster to convert Writable objects to Pig types?

转载 作者:行者123 更新时间:2023-12-02 21:54:12 26 4
gpt4 key购买 nike

我们可以加载可写 KEY,VALUE 对的序列文件,并使用 LoadCaster 接口(interface)将 KEY,VALUE 对转换为 pig 数据类型,以将原始字节数组转换为 pig 数据类型吗?

如果是这样,是否有一些用于加载序列文件和调用 LoadCaster 的 pig 代码示例?

具体来说,我目前正在这样做:

A = LOAD '/tmp/part-m-00000' using SequenceFileLoader AS (key:bytearray, value:bytearray);

到目前为止这有效,但我不知道现在使用我自己创建的 LoadCaster 对象将键和值转换为它们各自的元组的 pig 语法。

最佳答案

似乎这个问题的答案是使用来自 Elephant Bird 的 SequenceFileLoader(并确保不要将 Elephant Bird 库中的那个与 piggybank 库中的旧那个混淆)。

这些转换器是按照同一包中其他转换器的模式实现的。

关于hadoop - Apache pig : How to use LoadCaster to convert Writable objects to Pig types?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16600980/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com