gpt4 book ai didi

hadoop - 之前停止正在运行(运行)的实例后无法启动Hadoop,因为Datanode表示目录已锁定

转载 作者:行者123 更新时间:2023-12-02 20:17:24 26 4
gpt4 key购买 nike

我有一个运行Hadoop 1.2.1的集群,其顶部是Giraph。服务器运行正常,但是当我停止它时,我无法使其再次运行。在datanode日志中,出现以下错误:错误org.apache.hadoop.hdfs.server.datanode.DataNode:java.io.IOException:无法锁定存储/ pathToFolder / data / datanode。该目录已被锁定。
我尝试了许多在网上找到的解决方案:

  • 检查文件夹的权限。
  • 检查VERSION文件的相同版本的namenode和datanode。
  • 检查配置文件(核心站点,hdfs站点,mapred站点,主站点,从属站点...)
  • 删除/更改namenode和datanode数据文件夹
  • 删除hadoop临时文件

  • 底线是,一切似乎都很好,但是仍然无法启动datanode。数据节点的完整日志文件如下:
    2020-06-24 11:23:46,624 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG:
    /********************
    STARTUP_MSG: Starting DataNode
    STARTUP_MSG: host = XXXX
    STARTUP_MSG: args = []
    STARTUP_MSG: version = 1.2.1
    STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1503152; compiled by 'mattf' on Mon Jul 22 15:23:09 PDT 2013
    STARTUP_MSG: java = 1.8.0_212
    ********************/
    2020-06-24 11:23:46,719 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
    2020-06-24 11:23:46,725 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source MetricsSystem,sub=Stats registered.
    2020-06-24 11:23:46,726 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
    2020-06-24 11:23:46,726 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: DataNode metrics system started
    2020-06-24 11:23:46,791 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source ugi registered.
    2020-06-24 11:23:46,794 WARN org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Source name ugi already exists!
    2020-06-24 11:23:46,903 INFO org.apache.hadoop.hdfs.server.common.Storage: Cannot lock storage /users/lahdak/rojas/AppHadoop/data/datanode. The directory is already locked.
    2020-06-24 11:23:47,004 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Cannot lock storage /users/lahdak/rojas/AppHadoop/data/datanode. The directory is already locked.
    at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.lock(Storage.java:599)
    at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.analyzeStorage(Storage.java:452)
    at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:111)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:414)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:321)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1712)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1651)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1669)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1795)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1812)

    2020-06-24 11:23:47,004 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
    /********************
    SHUTDOWN_MSG: Shutting down DataNode at XXXX
    ********************/

    最佳答案

    仍然无法解决问题(Datanode无法正确关闭),但是我找到了解决此问题的方法。我使用lsof +D /path来检测 Activity 进程并杀死它们。奇怪的是,此过程对于topjps命令是不可见的。

    关于hadoop - 之前停止正在运行(运行)的实例后无法启动Hadoop,因为Datanode表示目录已锁定,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62554490/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com