gpt4 book ai didi

hadoop - 运行 pig 脚本给出错误 : job has failed. Stop running all dependent jobs

转载 作者:可可西里 更新时间:2023-11-01 16:17:17 26 4
gpt4 key购买 nike

我需要帮助来了解为什么在运行 pig 脚本时出现错误。但是当我在较小的数据中尝试相同的脚本时,它会成功执行。

有几个类似问题的问题,但没有一个有解决方案。

我的脚本是这样的:

A = load ‘test.txt’ using TextLoader();
B = foreach A generate STRSPLIT($0,’”,”’) as t;
C = FILTER B BY (t.$1==2 and t.$2 matches ‘.*xxx.*’);
Store C into temp;

错误是:

org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - 40% complete
2013-07-15 14:21:41,914 [main] INFO org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - job job_201307111759_7495 has failed! Stop running all dependent jobs
2013-07-15 14:21:41,914 [main] INFO org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - 100% complete
2013-07-15 14:21:42,754 [main] ERROR org.apache.pig.tools.pigstats.SimplePigStats - ERROR 2997: Unable to recreate exception from backed error: org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException: No lease on /xxx/ temp/_temporary/_attempt_201307111759_7495_m_000527_0/part-m-00527 File does not exist. Holder DFSClient_attempt_201307111759_7495_m_000527_0 does not have any open files.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1606)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1597)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.completeFileInternal(FSNamesystem.java:1652)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.completeFile(FSNamesystem.java:1640)
at org.apache.hadoop.hdfs.server.namenode.NameNode.complete(NameNode.java:689)
at sun.reflect.GeneratedMethodAccessor27.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.ipc.RPC$Server.c
2013-07-15 14:21:42,754 [main] ERROR org.apache.pig.tools.pigstats.PigStatsUtil - 1 map reduce job(s) failed!

我们将不胜感激。

谢谢。

最佳答案

经过一番研究,我发现这里的问题是LeaseExpiredException。这可能是因为映射器的输出被删除了。原因之一可能是为用户分配的配额。在我的例子中,我在一个非常大的数据中运行这个脚本,我的配额不足以处理/存储数据。

我们可以通过以下命令查看配额:

hadoop fs -count -q /user/username

谢谢。

关于hadoop - 运行 pig 脚本给出错误 : job has failed. Stop running all dependent jobs,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17664503/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com