gpt4 book ai didi

apache-spark - Spark : How to monitor the memory consumption on Spark cluster?

转载 作者:行者123 更新时间:2023-12-05 00:17:33 24 4
gpt4 key购买 nike

对不起,基本问题,但我自己无法弄清楚。

我试图在 Spark UI 上弄清楚每个工作人员和驱动程序上有多少可用内存和使用量。

有没有直接的和简单 如何监控这些信息?

我的目标是根据我的数据在工作人员和驱动程序上的占用量来决定我的持久化策略。

附言我在 Spark 1.6.1 上使用独立模式

最佳答案

我认为在 Executors 选项卡中,您将获得所需的信息。如果你有 Spark ,你会在 http://localhost:4040/executors/ 中找到它
最好的事物!

关于apache-spark - Spark : How to monitor the memory consumption on Spark cluster?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40022599/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com