- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
在我的多线程应用程序中尝试写入 HDFS 时出现以下错误
could only be replicated to 0 nodes instead of minReplication (=1). There are 1 datanode(s) running and no node(s) are excluded in this operation.
我在这里尝试过有关重新格式化的最高评价答案,但这对我不起作用:HDFS error: could only be replicated to 0 nodes, instead of 1
发生的事情是这样的:
PartitionTextFileWriter
线程 1 和 2 不会写入同一个文件,尽管它们在我的目录树的根目录下共享一个父目录。
我的服务器上的磁盘空间没有问题。
我也在我的名称节点日志中看到了这个,但不确定它是什么意思:
2016-03-15 11:23:12,149 WARN org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicy: Failed to place enough replicas, still in need of 1 to reach 1 (unavailableStorages=[], storagePolicy=BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}, newBlock=true) For more information, please enable DEBUG log level on org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicy
2016-03-15 11:23:12,150 WARN org.apache.hadoop.hdfs.protocol.BlockStoragePolicy: Failed to place enough replicas: expected size is 1 but only 0 storage types can be selected (replication=1, selected=[], unavailable=[DISK], removed=[DISK], policy=BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]})
2016-03-15 11:23:12,150 WARN org.apache.hadoop.hdfs.server.blockmanagement.BlockPlacementPolicy: Failed to place enough replicas, still in need of 1 to reach 1 (unavailableStorages=[DISK], storagePolicy=BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}, newBlock=true) All required storage types are unavailable: unavailableStorages=[DISK], storagePolicy=BlockStoragePolicy{HOT:7, storageTypes=[DISK], creationFallbacks=[], replicationFallbacks=[ARCHIVE]}
2016-03-15 11:23:12,151 INFO org.apache.hadoop.ipc.Server: IPC Server handler 8 on 9000, call org.apache.hadoop.hdfs.protocol.ClientProtocol.addBlock from 10.104.247.78:52004 Call#61 Retry#0
java.io.IOException: File /metrics/abc/myfile could only be replicated to 0 nodes instead of [2016-03-15 13:34:16,663] INFO [Group Metadata Manager on Broker 0]: Removed 0 expired offsets in 1 milliseconds. (kafka.coordinator.GroupMetadataManager)
这个错误的原因可能是什么?
谢谢
最佳答案
此错误是由 HDFS 的 block 复制系统引起的,因为它无法在聚焦文件中创建特定 block 的任何副本。常见的原因:
另请:
引用:https://wiki.apache.org/hadoop/CouldOnlyBeReplicatedTo
另外,请检查:Writing to HDFS from Java, getting "could only be replicated to 0 nodes instead of minReplication"
关于Hadoop:...被复制到 0 个节点而不是 minReplication (=1)。有 1 个数据节点正在运行,并且没有节点被排除在此操作中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36015864/
我对 72 台机器的集群有疑问。其中 60 个是热存储,12 个是冷存储。当我尝试将数据放入 COLD Hive 表时,有时出现错误: Caused by: org.apache.hadoop.hiv
我有 3 个数据节点正在运行,在运行作业时出现以下错误, java.io.IOException: File /user/ashsshar/olhcache/loaderMap9b663bd9 cou
I asked a similar question a while ago ,并认为我解决了这个问题,但事实证明它消失了只是因为我正在处理一个较小的数据集。 很多人问过这个问题,我已经遍历了所有我能
当我对 hive 执行“sqoop import ...”时出现此错误。 namenode log java.io.IOException: File /input/xxxx/_temporary/1
我尝试从我的本地加载 json 数据到 hadoop hdfs,我使用这些命令,它抛出异常: hadoop fs -copyFromLocal path/files/file.json input/
我不知道如何解决这个错误: Vertex failed, vertexName=initialmap, vertexId=vertex_1449805139484_0001_1_00, diagnos
在我的多线程应用程序中尝试写入 HDFS 时出现以下错误 could only be replicated to 0 nodes instead of minReplication (=1). Th
我已经下载并启动了 Cloudera 的 Hadoop Demo VM for CDH4(运行 Hadoop 2.0.0)。我正在尝试编写一个 Java 程序,它将在我的 Windows 7 机器(运
我在两个集群上设置了 hadoop,并在我尝试使用以下文件放置文件时在主节点中:hadoop fs -put test.txt /mydata/我收到以下错误: put: File /mydata/t
我是一名优秀的程序员,十分优秀!