gpt4 book ai didi

hadoop - SSH隧道访问EC2 Hadoop集群

转载 作者:行者123 更新时间:2023-12-02 21:53:09 26 4
gpt4 key购买 nike

背景 :

  • 我在EC2实例上安装了3节点Cloudera Hadoop集群,该集群可以按预期工作。
  • Windows计算机上的
  • 客户端程序,用于将计算机中的数据加载到HDFS。

  • 细节 :

    我的客户端程序使用Java开发,可以从Windows本地磁盘读取数据并将其写入HDFS。

    为此,我尝试通过Putty创建SSH隧道,然后尝试使用Windows用户名登录到无法正常工作的远程EC2实例。我可以使用Unix用户名登录。我想了解这是正确的行为吗?

    我不知道我是否正确创建了隧道,但是在此之后,当我尝试运行客户端程序时,出现以下错误:

    我的客户端程序使用Java开发,可以从Windows本地磁盘读取数据并将其写入HDFS。当我尝试运行我的程序时,出现以下错误可以帮助我。
    PriviledgedActionException as:ubuntu (auth:SIMPLE) cause:java.io.IOException: File /user/ubuntu/features.json could only be replicated to 0 nodes instead of minReplication (=1).  There are 3 datanode(s) running and 3 node(s) are excluded in this operation.

    6:32:45.711 PM INFO org.apache.hadoop.ipc.Server

    IPC Server handler 13 on 8020, call org.apache.hadoop.hdfs.protocol.ClientProtocol.addBlock from 108.161.91.186:54097: error: java.io.IOException: File /user/ubuntu/features.json could only be replicated to 0 nodes instead of minReplication (=1). There are 3 datanode(s) running and 3 node(s) are excluded in this operation.
    java.io.IOException: File /user/ubuntu/features.json could only be replicated to 0 nodes instead of minReplication (=1). There are 3 datanode(s) running and 3 node(s) are excluded in this operation.
    at org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget(BlockManager.java:1331)
    at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:2198)
    at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.addBlock(NameNodeRpcServer.java:480)
    at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.addBlock(ClientNamenodeProtocolServerSideTranslatorPB.java:299)
    at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java:44954)
    at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:453)
    at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:1002)
    at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1701)
    at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1697)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:396)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
    at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1695)

    任何的想法?

    最佳答案

    您可以使用hdfs fsck / -delete验证hdfs集群的运行状况,然后可以重新平衡数据节点。

    关于hadoop - SSH隧道访问EC2 Hadoop集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18197480/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com