作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用 Airflow 的 DataProcSparkOperator 在 Dataproc 上执行 Spark jar .该 jar 位于 GCS 上,我正在动态创建 Dataproc 集群,然后在新创建的 Dataproc 集群上执行此 jar。
我可以使用默认设置的 Airflow 的 DataProcSparkOperator 执行此操作,但我无法配置 Spark 作业属性(例如 --master
、 --deploy-mode
、 --driver-memory
等)。
从 Airflow 的文档中没有得到任何帮助。也尝试了很多东西,但没有成功。
帮助表示赞赏。
最佳答案
要通过 DataProcSparkOperator 配置 Spark 作业,您需要使用 dataproc_spark_properties
范围。
例如,您可以设置 deployMode
像这样:
DataProcSparkOperator(
dataproc_spark_properties={ 'spark.submit.deployMode': 'cluster' })
关于apache-spark - 如何在 Airflow 中将 Spark 作业属性传递给 DataProcSparkOperator?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53997513/
我是一名优秀的程序员,十分优秀!