gpt4 book ai didi

apache-spark - Mesos 上的 Apache Spark : Initial job has not accepted any resources

转载 作者:行者123 更新时间:2023-12-01 13:46:15 27 4
gpt4 key购买 nike

我正在使用 Apache Mesos 在集群模式下运行 Apache Spark。但是,当我启动 Spark-Shell 运行一个简单的测试命令 (sc.parallelize(0 to 10, 8).count) 时,我收到以下警告消息:

16/03/10 11:50:55 WARN TaskSchedulerImpl:初始作业尚未接受任何资源;检查您的集群 UI 以确保工作人员已注册并拥有足够的资源

如果我查看 Mesos WebUI,我可以看到 Spark-Shell 被列为一个框架,并且我已经列出了一个从设备(我自己的机器)。任何帮助如何解决它?

最佳答案

虽然大多数其他答案都集中在 spark slave 上的资源分配(核心、内存),但我想强调的是,防火墙可能会导致完全相同的问题,尤其是当您在云平台上运行 spark 时。

如果你能在 web UI 中找到 spark slaves,你可能已经打开了标准端口 8080、8081、7077、4040。尽管如此,当你实际运行一个作业时,它使用 SPARK_WORKER_PORTspark.driver.portspark.blockManager.port 默认是随机分配的。如果您的防火墙阻止了这些端口,则主服务器无法从从服务器检索任何特定于作业的响应并返回错误。

您可以通过打开所有端口来运行快速测试,看看从站是否接受作业。

关于apache-spark - Mesos 上的 Apache Spark : Initial job has not accepted any resources,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35919906/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com