gpt4 book ai didi

apache-spark - 如何向 Spark 作业添加自定义描述以在 Spark Web UI 中显示

转载 作者:行者123 更新时间:2023-12-03 07:25:02 27 4
gpt4 key购买 nike

当我们向 Spark 提交应用程序并执行任何操作后,Spark Web UI 会显示作业和阶段,例如 count at MyJob.scala:15。但在我的应用程序中,有多个 countsave 操作。所以理解UI是非常困难的。我们可以添加自定义描述来为作业提供更详细的信息,而不是 count at MyJob.scala:15

谷歌搜索发现https://issues.apache.org/jira/browse/SPARK-3468https://github.com/apache/spark/pull/2342 ,作者附image ,包含“计数”、“缓存和计数”、“有延迟的作业”等详细描述。那么我们能实现同样的目标吗?我使用的是 Spark 2.0.0。

最佳答案

使用sc.setJobGroup :

示例:
python :

In [28]: sc.setJobGroup("my job group id", "job description goes here")
In [29]: lines = sc.parallelize([1,2,3,4])
In [30]: lines.count()
Out[30]: 4

斯卡拉:

scala> sc.setJobGroup("my job group id", "job description goes here")
scala> val lines = sc.parallelize(List(1,2,3,4))
scala> lines.count()
res3: Long = 4

SparkUI:

job description screen shot

我希望这就是您正在寻找的内容。

关于apache-spark - 如何向 Spark 作业添加自定义描述以在 Spark Web UI 中显示,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39123314/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com