gpt4 book ai didi

windows - 在 Windows 10 中首次运行 Hadoop 时数据节点执行错误

转载 作者:可可西里 更新时间:2023-11-01 15:49:21 31 4
gpt4 key购买 nike

我正在尝试在我的 Windows 10 机器上运行 Hadoop 3.1.1。我修改了所有文件:

  • hdfs-site.xml
  • mapred-site.xml
  • 核心站点.xml
  • yarn-site.xml

然后,我执行了以下命令:

C:\hadoop-3.1.1\bin> hdfs namenode -format

格式正确运行,所以我定向到 C:\hadoop-3.1.1\sbin 执行以下命令:

C:\hadoop-3.1.1\sbin> start-dfs.cmd

命令提示符打开 2 个新窗口:一个用于数据节点,另一个用于名称节点。

名称节点窗口保持运行:

2018-09-02 21:37:06,232 INFO ipc.Server: IPC Server Responder: starting
2018-09-02 21:37:06,232 INFO ipc.Server: IPC Server listener on 9000: starting
2018-09-02 21:37:06,247 INFO namenode.NameNode: NameNode RPC up at: localhost/127.0.0.1:9000
2018-09-02 21:37:06,247 INFO namenode.FSNamesystem: Starting services required for active state
2018-09-02 21:37:06,247 INFO namenode.FSDirectory: Initializing quota with 4 thread(s)
2018-09-02 21:37:06,247 INFO namenode.FSDirectory: Quota initialization completed in 3 milliseconds
name space=1
storage space=0
storage types=RAM_DISK=0, SSD=0, DISK=0, ARCHIVE=0, PROVIDED=0
2018-09-02 21:37:06,279 INFO blockmanagement.CacheReplicationMonitor: Starting CacheReplicationMonitor with interval 30000 milliseconds

当数据节点出现以下错误时:

ERROR: datanode.DataNode: Exception in secureMain
org.apache.hadoop.util.DiskChecker$DiskErrorException: Too many failed volumes - current valid volumes: 0, volumes configured: 1, volumes failed: 1, volume failures tolerated: 0
at org.apache.hadoop.hdfs.server.datanode.checker.StorageLocationChecker.check(StorageLocationChecker.java:220)
at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2762)
at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2677)
at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2719)
at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2863)
at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2887)
2018-09-02 21:37:04,250 INFO util.ExitUtil: Exiting with status 1: org.apache.hadoop.util.DiskChecker$DiskErrorException: Too many failed volumes - current valid volumes: 0, volumes configured: 1, volumes failed: 1, volume failures tolerated: 0
2018-09-02 21:37:04,250 INFO datanode.DataNode: SHUTDOWN_MSG:

然后,数据节点关闭了!我尝试了几种方法来克服这个错误,但这是我第一次在 Windows 上安装 Hadoop,不知道下一步该怎么做!

最佳答案

在删除 hdfs-site.xml 中数据节点的文件系统引用后,一切正常。我发现这使软件能够创建和初始化自己的数据节点,然后在 sbin 中弹出。之后我可以顺利使用 hdfs。以下是适用于 Windows 上的 Hadoop 3.1.3 的方法:

<configuration>

<property>
<name>dfs.replication</name>
<value>1</value>
</property>

<property>
<name>dfs.namenode.name.dir</name>
<value>file:///C:/Users/myusername/hadoop/hadoop-3.1.3/data/namenode</value>
</property>

<property>
<name>dfs.datanode.data.dir</name>
<value>datanode</value>
</property>

</configuration>

干杯,MV

关于windows - 在 Windows 10 中首次运行 Hadoop 时数据节点执行错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52138821/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com