gpt4 book ai didi

hadoop - 对多个作业使用相同的 JavaSparkContext 以防止在 spark 驱动程序初始化时使用时间

转载 作者:可可西里 更新时间:2023-11-01 16:06:57 25 4
gpt4 key购买 nike

我正在尝试在 Google Dataproc 上运行 Spark 作业。但是,正如通常所见,Spark Driver 的初始化占用了大量的执行时间。我想知道什么是使用相同的 JavaSparkContext 实例在 Google Dataproc 上运行多个 Spark 作业的好方法,这样我就不会因为 spark 驱动程序初始化而失去每项作业的性能。目前,我的代码看起来像这样:

public static void main(String[] args) {

SparkConf configuration = new SparkConf().setAppName("App");
final JavaSparkContext context = new JavaSparkContext(configuration);

// Do stuff

// Stop connection to Java Spark
context.stop();
}

最佳答案

Dataproc 目前基于 YARN 进行资源分配,因为这使我们能够为基于 Hadoop 的作业(Hive、Pig、Hadoop MR)和 Spark 作业提供单一接口(interface)。这样做的不利之处在于,当您启动一个新的 (Java) SparkContext 时,会产生分配 Spark AppMaster 和 worker 的开销。我认为 Dataproc 没有适合您的内置答案,而且我认为任何易于实现的解决方案都意味着您将不再使用 Dataproc Jobs API 来提交单个作业。

虽然 Dataproc 本身目前无法通过作业 API 提供低延迟 Spark 作业,但您可以运行 Dataproc 集群并将 Spark 作业服务器指向 Dataproc 集群。您可以在此处的 github 上找到有关作业服务器的更多信息 https://github.com/spark-jobserver/spark-jobserver .使用作业服务器时,您应该能够创建一个 Spark 上下文,然后为以后的作业重用该上下文。您还需要确保将作业服务器配置为在 yarn-client 模式下运行。这意味着您创建的每个上下文仍会产生 YARN 分配的启动成本,但每个上下文只会产生一次。

如果您的 REST 服务器在无法进行任意网络调用的环境中运行(例如,AppEngine),您可能想要研究一个将消息发布到云 pubsub 的系统,然后在 GCE 中运行一个组件来订阅消息然后代表您的 AppEngine 应用将作业提交到 Spark 作业服务器。

关于hadoop - 对多个作业使用相同的 JavaSparkContext 以防止在 spark 驱动程序初始化时使用时间,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35713436/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com