gpt4 book ai didi

apache-spark - 如何在数据 block 中设置环境变量?

转载 作者:行者123 更新时间:2023-12-04 01:06:05 25 4
gpt4 key购买 nike

简单的问题,但我找不到有关如何在 Databricks 中设置环境变量的简单指南。此外,在驱动程序和执行程序上设置环境变量是否重要(您是否会通过 spark.conf 执行此操作)?谢谢

最佳答案

创建前:

您可以在创建集群时设置环境变量。

点击高级选项 => 输入 环境变量 .

enter image description here

创建后:

选择您的 集群 => 点击 编辑 => 高级选项 => 编辑或输入新 环境变量 => 确认重启 .

enter image description here



您可以通过将我的环境变量声明附加到文件/databricks/spark/conf/spark-env.sh 来获得所需的结果。您可以按如下方式更改 init 文件:

%scala
dbutils.fs.put("dbfs:/databricks/init/set_spark_params.sh","""
|#!/bin/bash
|
|cat << 'EOF' > /databricks/driver/conf/00-custom-spark-driver-defaults.conf
|[driver] {
| "spark.sql.sources.partitionOverwriteMode" = "DYNAMIC"
|}
|EOF
""".stripMargin, true)

更多详情请引用“ Databricks – Spark Configuration ”。

希望这可以帮助。

关于apache-spark - 如何在数据 block 中设置环境变量?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56856005/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com