gpt4 book ai didi

hadoop - Sqoop 导入失败 “No Space Left on Device”

转载 作者:可可西里 更新时间:2023-11-01 15:10:28 26 4
gpt4 key购买 nike

Sqoop 无法将数据导入 hadoop thorwing 错误为随机表上的“设备上没有剩余空间”。我们在 HDFS 和 Local FS 上都有足够的空间。不知道为什么,请让我知道如何解决它。

SELECT ALTR_DESC WHERE 1=1 WITH UR 2017-03-29 00:32:27 ERROR 
SqoopThread:165 - Error occurred while importing data
HALS.CLOUD_AESC java.lang.RuntimeException:
java.io.FileNotFoundException: /apps/data/cloud.log 170329.003227.HALSDBP3.1694.TBA_ALTR_DESC.log (No space left on device) at
com.apache.sqoop.log.LogWriter.close(LogWriter.java:137) at
com.apache.sqoop.log.LogWriter.flush(LogWriter.java:155) at
com.apche.sqoop.log.LogWriter.write(LogWriter.java:41) at
com.apache.sqoop.service.SqoopThread.run(SqoopThread.java:100) at
java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) at
java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745) Caused by:
java.io.FileNotFoundException: /apps/data/cloud.log/170329.003227.HALSDBP3.1694.TBA_ALTR_DESC.log (No space left on device) at java.io.FileOutputStream.open(Native Method) at
java.io.FileOutputStream.(FileOutputStream.java:221) at
java.io.FileOutputStream.(FileOutputStream.java:142) at
java.io.FileWriter.(FileWriter.java:78) at
com.apache.sqoop.log.LogWriter.close(LogWriter.java:127)

最佳答案

这意味着您在集群的一个(或多个)节点中没有足够的存储空间。检查 HDFS 的 Web UI 以查看每个数据节点和执行作业时的剩余空间。

运行作业后可能会释放此空间,因此您可能需要在作业运行时检查它。如果没有足够的时间来执行此操作(即作业很快),那么您还可以检查每个数据节点上的数据节点日志,以确定哪个数据节点无法存储数据。

我不熟悉 sqoop,但解决这个问题的标准方法是使用压缩,另一种方法可能是将复制因子从 3 降低到 2,甚至 1(但这对容错和数据有影响地区)。但是,首先要确定发生这种情况的时间原因

关于hadoop - Sqoop 导入失败 “No Space Left on Device”,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43086809/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com