gpt4 book ai didi

hadoop - PIG 中加载的多个文件的多个输出

转载 作者:可可西里 更新时间:2023-11-01 14:53:04 26 4
gpt4 key购买 nike

我的数据目录(路径:/home/admin/Desktop/data)中有 50 个文本文件。我的任务是扁平化(标记化)文本文件中的数据并将输出存储在 50 个输出文件中。

以下是我为完成这项工作而建立的关系:

--This will load all the 50 text files.
A = Load '/home/admin/Desktop/data' Using PigStorage(',');

--This relation will create every word as a token and will flatten the data.
B = FOREACH A GENERATE FLATTEN(TOKENIZE($0));

STORE B into '/home/ameya/Desktop/PigOutput';

现在,当我执行这个 pig 脚本时,对于 50 个输入文件,我只得到一个输出文件。

如何获得 50 个不同的输出文件,每个文件包含与其输入文件中的数据对应的输出数据?

最佳答案

拆分运算符可用于根据某些表达式将关系的内容划分为两个或多个关系。根据表达式中提供的条件,将执行以下两个中的任何一个:

  • 一个元组可以分配给多个关系
  • 元组不能分配给任何关系

一个目录中的多个文件,在 pig 中用于加载、展平和存储:

[user1@localhost ~]# ls /pigsamples/mfilesdata/
file1 file2 file3

加载以上目录:

grunt> input_data = LOAD '/pigsamples/mfilesdata' USING PigStorage (',') AS (f1:INT, f2:INT, f3:INT);
grunt> DUMP input_data;
(1,2,3)
(2,3,1)
(3,1,2)
(4,5,6)
(5,6,4)
(6,4,5)
(7,8,9)
(8,9,7)
(9,7,8)

根据您的要求格式化数据。我使用了与问题中相同的操作。

grunt> formatted_data = FOREACH input_data GENERATE FLATTEN(TOKENIZE($0));    //replace with your requirements

使用SPLIT 运算符根据条件将关系拆分为多个关系。

grunt> 
SPLIT formatted_data
INTO split1 IF f1 <= 3,
split2 IF (f1 > 3 AND f1 <= 6),
split3 IF f1 > 6; //split based on the column which is unique within all the files

输出:

grunt> DUMP split1;
(1,2,3)
(2,3,1)
(3,1,2)

grunt> DUMP split2;
(4,5,6)
(5,6,4)
(6,4,5)

grunt> DUMP split3;
(7,8,9)
(8,9,7)
(9,7,8)

关于hadoop - PIG 中加载的多个文件的多个输出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31898439/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com