gpt4 book ai didi

apache-spark - 未使用的 Spark worker

转载 作者:行者123 更新时间:2023-12-02 05:13:27 27 4
gpt4 key购买 nike

我已经配置了连接到 Cassandra 集群的独立 Spark 集群,其中包含 1 个主服务器、1 个从服务器和 Thrift 服务器,该服务器用作 Tableau 应用程序的 JDBC 连接器。无论如何,当我启动任何查询工作程序时,从属程序都出现在工作程序列表中,似乎没有用作执行程序(使用了 0 个核心)。所有工作负载均由主执行器执行。另外,在 Thrift Web 控制台中,我观察到只有一个执行程序处于事件状态。

基本上,我希望 Spark 集群的两个执行器上的分布式工作负载能够实现更高的性能。

来自主日志:

2019-03-26 15:36:52 INFO Master:54 - I have been elected leader! New state: ALIVE 2019-03-26 15:37:00 INFO Master:54 - Registering worker worker-ip:37678 with 16 cores, 61.8 GB RAM

来自工作日志:

2019-03-26 15:37:00 INFO Worker:54 - Successfully registered with master spark://master-hostname:7077

我的spark-defaults.conf是:

spark.driver.memory=50g
spark.driver.maxResultSize=4g

spark.sql.thriftServer.incrementalCollect=false
spark.sql.shuffle.partition=17
spark.sql.autoBroadcastJoinThreshold=10485760
spark.sql.inMemoryColumnarStorage.compressed=true
spark.sql.inMemoryColumnarStorage.batchSize=10000

spark.cores.max=32
spark.executor.cores=16
spark.memory.offHeap.enabled=true
spark.memory.offHeap.size=1g

图1 worker

enter image description here

pic2执行者

enter image description here

非常感谢任何帮助。

最佳答案

当 Spark 不对工作人员执行时,需要消除一些主要嫌疑人。

  1. 您在 Web UI 中看到工作器了吗?
  2. 防火墙是否允许您发送实际工作负载并获取响应?请参阅this existing answer更多细节。
  3. 从站是否有足够的可用资源来接受该工作?我注意到您需要 16 个核心,也许这超出了可用的核心数?
  4. 是否需要容量?考虑并行提交多个作业(需要执行器,并且资源需求足够小),以确保它不仅仅是“巧合”地避开该节点。继续下去,直到您发现它确实不适合您的主节点。

如果所有这些都失败,可能需要更多背景信息。

  • 您没有分享任何错误消息,真的没有任何错误吗?
  • 您使用哪种集群(Hadoop、Mesos?)

关于apache-spark - 未使用的 Spark worker ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55361331/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com