gpt4 book ai didi

hadoop - pig : How to flatten & re-join bags within bags

转载 作者:可可西里 更新时间:2023-11-01 15:40:14 30 4
gpt4 key购买 nike

我有一个例子,我们正在尝试做一个看似简单的连接:

A = load 'data6' as ( item:chararray, d:int, things:bag{(thing:chararray, d1:int, values:bag{(v:chararray)})} );
B = load 'data7' as ( v:chararray, r:chararray );

grunt> cat data1
'item1' 111 { ('thing1', 222, {('value1'),('value2')}) }
grunt> cat data2
'value1' 'result1'
'value2' 'result2'

我们想将data2'result1','result2'数据加入到data1的entry中>,在明显的 value 字段上。

我们设法把它弄平了:

A = load 'data6' as ( item:chararray, d:int, things:bag{(thing:chararray, d1:int, values:bag{(v:chararray)})} );
B = load 'data7' as ( v:chararray, r:chararray );
F1 = foreach A generate item, d, flatten(things);
F2 = foreach F1 generate item..d1, flatten(values);

然后我们将第二个数据集加入到:

J = join F2 by v, B by v
J1 = foreach J generate item as item, d as d, thing as thing, d1 as d1, F2::things::values::v as v, r as r; --Remove duplicate field & clean up naming

dump J1
('item1',111,'thing1',222,'value1','result1')
('item1',111,'thing1',222,'value2','result2')

现在我们需要为每个项目调用一次 UDF 函数,因此我们需要重新分组这 2 层袋子。每个项目有 0 个或多个事物,每个事物有 0 个或多个值,现在这些值可能有也可能没有结果。

我们如何返回:

 ('item1', 111, { 'thing1', 222, { ('value1, 'result1'), ('value2', 'result2') }

我在分组和重新加入方面的所有尝试都变得非常复杂,未能产生正确的结果,并且在 4 个以上的 mapreduce 作业中运行,而在 Hadoop 中应该是 1 个 mapreduce 作业。

最佳答案

下面的代码可能有效,R2是最终结果:

group_by_item_d_thing_d1 = group J1 by item, d, thing, d1;
R1 = foreach group_by_item_d_thing_d1 generate group.item, group.d, group.thing, group.d1, J1;
group_by_item_d = group R1 by item, d;
R2 = foreach group_by_item_d generate group.item, group.d, R1;

关于hadoop - pig : How to flatten & re-join bags within bags,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16951814/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com