gpt4 book ai didi

apache-spark - 如何在 Yarn 上运行的 Spark 中动态增加事件任务

转载 作者:行者123 更新时间:2023-12-05 00:18:21 25 4
gpt4 key购买 nike

enter image description here我正在运行一个 Spark 流过程,其中我收到了一批 6000 个事件。但是当我查看执行程序时,只有一项事件任务正在运行。我尝试了动态分配以及设置执行器数量等。即使我有 15 个执行器,一次也只有一个事件任务在运行。任何人都可以指导我我在这里做错了什么。

最佳答案

您的 DStream 中似乎只有一个分区.您应该尝试显式重新分区您的输入流:

val input: DStream[...] = ...
val partitionedInput = input.repartition(numPartitions = 16)

这样,您的输入中将有 16 个分区 DStream ,并且每个分区都可以在单独的任务中处理(并且每个任务都可以在单独的执行器上执行)

关于apache-spark - 如何在 Yarn 上运行的 Spark 中动态增加事件任务,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37972877/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com