gpt4 book ai didi

apache-spark - Spark Streaming - 作业与默认的 spark.streaming.concurrentJobs 设置同时运行

转载 作者:行者123 更新时间:2023-12-04 04:55:25 45 4
gpt4 key购买 nike

我在 Spark Streaming Job 中遇到了一个奇怪的行为。我们使用了 spark.streaming.concurrentJobs 的默认值 1。同一个流作业正常运行超过一天,批处理间隔设置为 10 分钟。突然间,同一作业开始同时运行所有进入的批处理,但没有将它们放入队列。

有没有人遇到过这个问题?这会很有帮助!

最佳答案

这种行为似乎很奇怪,但我相信当一次只有 1 个作业在运行并且如果批处理时间 < 批处理间隔时,系统似乎是稳定的。

Spark Streaming 创建者 Tathagata hs 提到了这一点:How jobs are assigned to executors in Spark Streaming? .

关于apache-spark - Spark Streaming - 作业与默认的 spark.streaming.concurrentJobs 设置同时运行,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43465117/

45 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com