gpt4 book ai didi

hadoop - 在具有高可用性的 Hadoop 集群上运行 Spark-submit 时出现异常

转载 作者:可可西里 更新时间:2023-11-01 16:01:45 24 4
gpt4 key购买 nike

我在具有高可用性的 Hadoop 集群上运行 Spark-submit 命令时遇到异常。

以下命令在未启用 HA 的其他集群上运行良好。

spark-submit  --master yarn-client   --executor-memory 4g  --executor-cores 2    --class com.domain.app.module.mainclass   target/SNAPSHOT-jar-with-dependencies.jar

同一命令在启用 HA 的集群上不起作用并抛出以下异常。

Exception in thread "main" java.lang.AbstractMethodError: org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider.getProxy()Lorg/apache/hadoop/io/retry/FailoverProxyProvider$ProxyInfo

请建议我是否需要在 spark conf 中设置任何配置。

最佳答案

来自 http://hadoop.apache.org/docs/r2.6.0/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html#Configuration_details 上的说明

请检查您的 hdfs-site.xml:

<property>
<name>dfs.nameservices</name>
<value>mycluster</value> <-- Choose a name for your cluster
</property>
...
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name> <-- Put cluster name here
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

您还应该检查该页面上提到的其他设置是否已正确配置:

  • dfs.ha.namenodes.[名称服务 ID]
  • dfs.namenode.rpc-address.[名称服务 ID].[名称节点 ID]
  • dfs.namenode.http-address.[名称服务 ID].[名称节点 ID]
  • dfs.namenode.shared.edits.dir
  • dfs.client.failover.proxy.provider.[名称服务 ID]
  • dfs.ha.fencing.methods fs.defaultFS dfs.journalnode.edits.dir

关于hadoop - 在具有高可用性的 Hadoop 集群上运行 Spark-submit 时出现异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38262064/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com