gpt4 book ai didi

azure-databricks - Databricks 和 Azure 文件

转载 作者:行者123 更新时间:2023-12-04 02:49:34 28 4
gpt4 key购买 nike

我需要访问 Azure Files来自 Azure Databricks .根据文档 Azure Blobs受支持,但我需要此代码来处理 Azure 文件:

dbutils.fs.mount(
source = "wasbs://<your-container-name>@<your-storage-account-name>.file.core.windows.net",
mount_point = "/mnt/<mount-name>",
extra_configs = {"<conf-key>":dbutils.secrets.get(scope = "<scope-name>", key = "<key-name>")})

或者还有其他方法可以挂载/访问 Azure Files往返于 Azure Databricks簇?谢谢

最佳答案

在 Azure 上,通常可以通过 SMB 协议(protocol)将 Azure Files 的文件共享挂载到 Linux。我尝试按照官方教程 Use Azure Files with Linux 通过在 Python 中创建一个笔记本来执行以下命令,但失败了。

enter image description here

似乎 Azure Databricks 不允许这样做,即使我搜索了 mount NFS , SMB , Samba等在 Databricks 社区中没有任何讨论。

因此,访问 Azure Files 中文件的唯一方法是安装 azure-storage包并直接在 Azure Databricks 上使用 Azure Files SDK for Python。

关于azure-databricks - Databricks 和 Azure 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55617970/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com