gpt4 book ai didi

apache-spark - Spark 作业卡在 99% 并且无法继续

转载 作者:行者123 更新时间:2023-12-04 04:46:16 25 4
gpt4 key购买 nike

<分区>

我有一个基本的 Spark 作业,可以执行几个连接。加入的 3 个数据框有点大,每个框都有近 20 亿条记录。我有一个 spark 基础设施,可以在必要时自动扩展节点。这似乎是一个非常简单的 spark SQL 查询,我将其结果写入磁盘。但是当我从 Spark UI 查看时,作业总是卡在 99%。

我尝试过的一些事情是:

  • 增加执行器的数量和执行器内存
  • 在写入文件时使用repartition
  • 使用原生 spark join 而不是 spark SQL join

然而,这些都没有奏效。如果有人可以分享解决这个问题的经验,那就太好了。提前致谢。

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com