gpt4 book ai didi

apache-spark - 从 Airflow SparkSubmitOperator 提交 Spark 应用程序时如何设置 YARN 队列

转载 作者:行者123 更新时间:2023-12-02 18:12:51 41 4
gpt4 key购买 nike

我是 Airflow 和 SparkSubmitOperator 的新手。我可以看到,当以 YARN 为目标时,Spark 应用程序被提交到“root.default”队列。

简单的问题 - 如何设置自定义队列名称?

wordcount = SparkSubmitOperator(
application='/path/to/wordcount.py',
task_id="wordcount",
conn_id="spark_default",
dag=dag
)

附言我已阅读文档:

https://airflow.apache.org/docs/stable/_modules/airflow/contrib/operators/spark_submit_operator.html

谢谢

最佳答案

我现在可以看到 --queue 值来自 Airflow spark-default 连接:

Conn Id = spark_default
Host = yarn
Extra = {"queue": "root.default"}
转到管理菜单 > 连接,选择 spark default 并编辑它:
更改额外 {"queue": "root.default"}{"queue": "default"}在 Airflow WebServer UI 中。
这当然意味着每个队列都需要一个 Airflow 连接。
enter image description here

关于apache-spark - 从 Airflow SparkSubmitOperator 提交 Spark 应用程序时如何设置 YARN 队列,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60329007/

41 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com