gpt4 book ai didi

apache-spark - 提交 Spark 作业到 Spark 集群

转载 作者:行者123 更新时间:2023-12-04 05:22:29 26 4
gpt4 key购买 nike

我是 Spark 的完全新手,并且刚刚开始对此进行更多探索。我选择了更长的路径,不使用任何 CDH 发行版安装 hadoop,并且我从 Apache 网站安装了 Hadoop 并自己设置配置文件以了解更多基础知识。

我设置了一个 3 节点集群(所有节点都是从 ESX 服务器创建的 VM 机器)。我通过使用 zookeeper 机制为 Namenode 和 ResourceManager 设置了高可用性。所有三个节点也都用作 DataNode。

以下守护进程在所有三个节点上运行

Daemon in Namenode 1          Daemon In Namenode 2       Daemon in Datanode         
8724 QuorumPeerMain 22896 QuorumPeerMain 7379 DataNode
13652 Jps 23780 ResourceManager 7299 JournalNode
9045 DFSZKFailoverController 23220 DataNode 7556 NodeManager
9175 DataNode 23141 NameNode 7246 QuorumPeerMain
9447 NodeManager 27034 Jps 9705 Jps
8922 NameNode 23595 NodeManager
8811 JournalNode 22955 JournalNode
9324 ResourceManager 23055 DFSZKFailoverController

我在 NameNode 1 和 2 中为 NN 和 RM 设置了 HA。节点的硬件配置非常低(每个 4GM RAM 和 20GB 磁盘空间),但这些仅用于测试目的。所以我想没关系。

我已经在 NameNode 1 中安装了 Spark(与我安装的 Hadoop 2.7 兼容的版本)。我能够在本地启动 Spark-shell 并执行基本的 scala 命令来创建 RDD 并对其执行一些操作。我还设法测试运行 SparkPi 示例作为 Yarn-Cluster 和 Yarn-Client 部署模式。一切都很好。

现在我的问题是,在实时场景中,我们将在我们的本地机器(而不是形成 Hadoop 集群的节点)中编写基于(Java、scala 或 py)的代码。假设我有另一台机器与我的 HA 集群在同一个网络中。我如何将我的工作提交到 Yarn-Cluster(假设我想尝试提交 SparkPi)示例从不在 HA 中的主机到 Yarn RM,如何我这样做?

我相信,SPARK 必须安装在我编写代码的机器上(我的假设是否正确)并且 HA 集群中不需要安装 spark。我还想将已提交作业的输出从提交作业的位置返回到主机。我不知道需要做什么才能完成这项工作。

我听说过 Spark JobServer,这是我启动和运行它所需要的吗?我相信你们可以帮助我解决这个困惑。我只是找不到任何明确指定完成此操作的步骤的文档。我可以将作业从基于 Windows 的机器提交到我在 unix 环境中的 HA 集群设置吗?

最佳答案

Spark JobServer 为您的需求提供了休息接口(interface)。除此之外还有其他特点。

参见 https://github.com/spark-jobserver/spark-jobserver获取更多信息。

关于apache-spark - 提交 Spark 作业到 Spark 集群,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37178063/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com