- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试将大数据加载到 HDFS,但有时会出现以下错误。知道为什么吗?
错误:
org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException: No lease on /data/work/20110926-134514/_temporary/_attempt_201109110407_0167_r_000026_0/hbase/site=3815120/day=20110925/107-107-3815120-20110926-134514-r-00026 File does not exist. Holder DFSClient_attempt_201109110407_0167_r_000026_0 does not have any open files.
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1557)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.checkLease(FSNamesystem.java:1548)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.completeFileInternal(FSNamesystem.java:1603)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.completeFile(FSNamesystem.java:1591)
at org.apache.hadoop.hdfs.server.namenode.NameNode.complete(NameNode.java:675)
at sun.reflect.GeneratedMethodAccessor16.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:557)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1434)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1430)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)
at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1428)
at org.apache.hadoop.ipc.Client.call(Client.java:1107)
at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226)
at $Proxy1.complete(Unknown Source)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:82)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:59)
at $Proxy1.complete(Unknown Source)
at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.closeInternal(DFSClient.java:3566)
at org.apache.hadoop.hdfs.DFSClient$DFSOutputStream.close(DFSClient.java:3481)
at org.apache.hadoop.fs.FSDataOutputStream$PositionCache.close(FSDataOutputStream.java:61)
at org.apache.hadoop.fs.FSDataOutputStream.close(FSDataOutputStream.java:86)
at org.apache.hadoop.io.SequenceFile$Writer.close(SequenceFile.java:966)
at org.apache.hadoop.io.SequenceFile$BlockCompressWriter.close(SequenceFile.java:1297)
at org.apache.hadoop.mapreduce.lib.output.SequenceFileOutputFormat$1.close(SequenceFileOutputFormat.java:78)
at org.apache.hadoop.mapreduce.lib.output.MultipleOutputs$RecordWriterWithCounter.close(MultipleOutputs.java:303)
at org.apache.hadoop.mapreduce.lib.output.MultipleOutputs.close(MultipleOutputs.java:456)
at com.my.hadoop.platform.sortmerger.MergeSortHBaseReducer.cleanup(MergeSortHBaseReducer.java:145)
at org.apache.hadoop.mapreduce.Reducer.run(Reducer.java:178)
at org.apache.hadoop.mapred.ReduceTask.runNewReducer(ReduceTask.java:572)
at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:414)
at org.apache.hadoop.mapred.Child$4.run(Child.java:270)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1127)
at org.apache.hadoop.mapred.Child.main(Child.java:264)
最佳答案
我设法解决了这个问题:
当工作结束时,他删除了/data/work/文件夹。如果并行运行的作业很少,删除操作也会删除另一个作业的文件。实际上我需要删除/data/work/。
换句话说,当作业尝试访问不再存在的文件时会抛出此异常
关于hadoop - 租期过期异常 : No lease error on HDFS,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7559880/
我正在读取/写入 blob 存储中的文件,并且遇到了 AcquireLeaseAsync 和 BreakLeaseAsync 的问题。我认为这就是我调用 AcquireLeaseAsync 的方式,但
当我尝试从存储帐户容器中删除 blob 时,收到一条错误消息:“该 blob 当前有租约,并且请求中未指定租约 ID。” 我有 4 个虚拟机实例。我还有 8 个虚拟机磁盘,其中 4 个正在使用(每个虚
我有一个正在访问的 Blob: BlobContainerClient blobContainerClient = blobServiceClient.GetBlobContainerClient(C
我正在运行ISC Kea DHCP服务器,为MAC aa.bb.cc.dd.ee.ff预留了192.168.1.2。。客户端已成功获取IP 192.168.1.2,但在重新启动后,它不再获取IP,并且
我刚刚了解了 git push --force-with-lease。太棒了。但是,当然,我不经常使用武力,所以我担心下次需要时我可能会忘记这个漂亮的功能。 有没有办法配置 git 以便 git pu
我知道其他Kubernetes默认命名空间的用途,例如:kube-system,default和kube-public,但是没有有关kube-node-lease的正式文档。 我发现的唯一offici
我正在尝试将大数据加载到 HDFS,但有时会出现以下错误。知道为什么吗? 错误: org.apache.hadoop.ipc.RemoteException: org.apache.hadoop.hd
在当前的 Git 上,git push --force-with-lease origin +somebranch 和 git push --force-with-lease origin someb
我有一个带有远程 origin 的 git 仓库镜像在 3 台主机上。 $ git remote -v origin git@github.com:username/repo.git (fetch)
我在工作中 rebase 时经常使用 force push with lease,我想知道 gitkraken 在引擎盖下,当点击 force push 时,它运行的是 force push,还是 f
我一直遵循的规则是,一旦将 git 历史推送到远程存储库,就不要修改它。 但我想知道是否交互式 rebase 到 push --force-with-lease 绕过了这个规则? 如果强制租赁成功,其
我们正在努力解决一些 DHCP 问题,我正在使用 Python 和正则表达式来解析 dhcpd.leases 文件。我想编写一个正则表达式来捕获每个租约(请参阅底部的文件示例) block ,然后捕获
我试图理解两者之间的区别 git push --force 和 git push --force-with-lease 我的猜测是后者只推送到远程如果远程提交了本地分支没有? 最佳答案 force 用
调用创建容器时出现以下错误。 响应代码:403响应消息:服务器无法验证请求。确保授权 header 的值格式正确,包括签名。 String stringToSign = "PUT\n\n\n\n\n\
我尝试使用 Basel 解析我的 dhcpd.lease 文件。典型的条目如下所示: lease 192.168.20.4 { starts 6 2009/06/27 00:40:00;
已关闭。此问题不符合Stack Overflow guidelines 。目前不接受答案。 已关闭 9 年前。 此问题似乎与 a specific programming problem, a sof
我在stackoverflow上看到了几个与此相关的问题,但都没有解决我的问题。 使用 90 Mb 文件运行作业时出现 LeaseExpiredException 13/11/12 15:46:41
我正在尝试运行从 EventHub 读取消息的示例,但出现以下错误: 示例网址:https://github.com/Azure/azure-event-hubs/tree/master/sample
使用事件中心绑定(bind)时出现以下错误。 public static void Run([EventHubTrigger("tlog_eh_policy", Connection = "Ev
我正在尝试运行从 EventHub 读取消息的示例,但出现以下错误: 示例网址:https://github.com/Azure/azure-event-hubs/tree/master/sample
我是一名优秀的程序员,十分优秀!