gpt4 book ai didi

hadoop - 用oozie工作流文件元素的外部文件运行Pig UDF的等效方法

转载 作者:行者123 更新时间:2023-12-02 21:46:03 24 4
gpt4 key购买 nike

我的工作流程主要是养 pig 工作。

workflow.xml中,一行<file>${hdfsPath}/hdfsLineItem.txt#LineItem.txt</file>
此文件用于其他UDF间接使用的一个UDF中,源代码段为in = new DataInputStream(new FileInputStream("./LineItem.txt"));
我无权提交oozie工作,但我可以提交养 pig 工作。
但是,我找不到与该外部文本文件一起提交清管工作的等效方法。

我将该文件复制到我的空间并运行pig myscript.pig -file LineItem.txt,但是UDF会抛出IOException。有谁知道提交养 pig 工作的等效方法?

最佳答案

用另一种方式解决我的问题。文本文件也存储在hdfs上,我修改了UDF并将其更改为

FileSystem fs = FileSystem.get(UDFContext.getUDFContext().getJobConf());
DataInputStream in = new fs.open(new Path("_hdfsPath_/hdfsLineItem.txt"));

和其余的代码是相同的。最后,我可以直接提交我的养 pig 工作。

关于hadoop - 用oozie工作流文件元素的外部文件运行Pig UDF的等效方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25257125/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com