- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试将文件从共享文件夹上传到 Azure Datalake gen 1 文件夹。
现在,我只是测试连接,并列出根目录下的文件夹:
adlCreds = lib.auth(tenant_id = tenant_id, client_secret = client_secret, client_id = client_id, resource = RESOURCE, azure_username = azure_username,azure_password=azure_password)
adls = core.AzureDLFileSystem(adlCreds, store_name=adlsAccountName)
print(adls.ls())
效果很好,我可以看到所有文件夹。
但是当我尝试使用 ls 方法或 walk 方法访问这些文件夹之一时,我收到此错误:
Traceback (most recent call last):
File "C:\Users\Python37-32\test_azure.py", line 46, in <module>
print(adls.ls('/Test'))
File "C:\Users\Python37-32\lib\site-packages\azure\datalake\store\core.py", line 164, in ls
files = self._ls(path, invalidate_cache)
File "C:\Users\Python37-32\lib\site-packages\azure\datalake\store\core.py", line 143, in _ls
self.dirs[key] = self._ls_batched(key, batch_size=batch_size)
File "C:\Users\Python37-32\lib\site-packages\azure\datalake\store\core.py", line 124, in _ls_batched
ls_call_result = self.azure.call('LISTSTATUS', path, **parms)
File "C:\Users\Python37-32\lib\site-packages\azure\datalake\store\lib.py", line 437, in call
self.log_response_and_raise(response, PermissionError(path), level=exception_log_level)
File "C:\Users\Python37-32\lib\site-packages\azure\datalake\store\lib.py", line 345, in log_response_and_raise
raise exception
PermissionError: Test
我被授予对根目录和“Test”文件夹的读取、写入和执行权限。
您知道为什么权限被拒绝吗?
感谢您的宝贵时间。
最佳答案
添加我的评论作为答案:
该错误是由于您刚刚授予了根目录的权限(添加到此文件夹,没有所有子目录),您还需要授予所有子目录的权限,然后才能工作。
关于Python PermissionError 访问 Azure Datalake 文件夹,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56158956/
我刚刚开始在 .NET 中使用 Azure Data Lake。我发现有 2 个库可用: Microsoft.Azure.Management.DataLake.Store 提供数据湖存储Micros
我想做一些简单的事情!!! 将 blob 从第二代 dataLake (SourceDataLake) 中的容器 (SourceContainer) 复制到第二个 DatLake (TargetDat
我有 2 个不同的应用程序来处理来自 Data Lake Storage Gen1 的数据。 第一个应用程序上传文件:如果同一天多次上传,现有文件将被覆盖(始终是使用 YYYY-MM-dd 格式保存的
我们正在尝试评估是否适合我们的解决方案。我们想要处理大数据,因此我们想要围绕 Hadoop 堆栈构建解决方案。我们想知道 Azure 在这些情况下如何提供帮助。我们正在构建的解决方案是 SAAS。但我
我们的突触管道出现堵塞,我们希望通过工作流程在 Lake 数据库上创建接收器。但无法选择创建的lake数据库,只显示默认的。我查看了一些论坛,但没有找到太多,他们说它正在 Microsot 开发中。请
我有一个简单的管道,带有复制数据。我正在尝试将数据从 sql 提取到数据湖。我创建了两个数据集,一个用于 sql,另一个用于 datalake。 当我们运行管道并且列具有字符串数据类型时,数据集中定义
我正在向 Azure Datalake 写入一个简单的文件,以了解如何将其用于其他方式,但我遇到了问题,当我尝试写入时,收到以下错误消息 21/5/2018 9:03:27 AM] Executed
我有一个基本流,并且有多个针对不同连续日期的增量流。我想合并它们以获得最终的流。我如何在 Azure Datalake 中完成此操作。例如,假设这些是流。我需要合并这些流以获得最终的流。合并将用新值替
我想使用剩余操作在 Azure datalake gen2 中执行操作。我有一个具有客户端 key 的服务主体,并且拥有存储帐户的所有者访问权限。我很困惑如何构建操作请求。我找不到任何合适的例子来证明
我正在尝试使用 Python SDK 迭代 Azure datalake Gen1 中的所有文件夹。我正在使用分配有所有者角色的服务主体。但是,当我尝试访问某些文件夹时,出现权限被拒绝错误。我不确定我
是否有任何在线工具可以让我们直接在Azure云中查看/编辑文本文件,而无需下载到本地计算机并使用UltraEdit或EMeditor等文本编辑器? 谢谢暗部 最佳答案 是的; Kudu 有一个出色的
string dfsUri = "https://" + accountName + ".dfs.core.windows.net"; DataLakeServiceClient dataLakeSe
我有一个存储帐户datalake Gen2。我需要将我的存储帐户日志连接到日志分析工作区。 但是没有诊断设置菜单,所以我不知道该怎么做。 我认为 datalake Gen1 支持这一点,但是 data
我的要求是将 Datalake 文件夹中的文件名与 .CSV 文件中的文件名进行比较,如果文件名匹配,那么我想复制这些文件,如果文件名不匹配,那么我想存储这些文件名在数据湖中的 .CSV 文件中。 请
我试图了解为什么我的 ACL 权限在 Databricks 中无法正常工作。 场景:我有 2 个用户。一个对文件系统具有完全权限的人。其他无任何权限。 我尝试使用两种不同的方法在 databricks
我们在 Azure Data Lake Gen 2 的分区文件夹下有 CSV 文件,因此单个大表将有多个 CSV 文件。我们希望通过创建外部表在 Azure 数据资源管理器中使用这些文件。所以我使用下
如何使用 C# 在 Azure 数据湖上创建空文件。在其中一个线程 Create File From Azure Data Lake Store .NET SDK它提到使用- FileSystemOp
我们在 Azure Data Lake Gen 2 的分区文件夹下有 CSV 文件,因此单个大表将有多个 CSV 文件。我们希望通过创建外部表在 Azure 数据资源管理器中使用这些文件。所以我使用下
如何使用 C# 在 Azure 数据湖上创建空文件。在其中一个线程 Create File From Azure Data Lake Store .NET SDK它提到使用- FileSystemOp
我正在尝试将文件从共享文件夹上传到 Azure Datalake gen 1 文件夹。 现在,我只是测试连接,并列出根目录下的文件夹: adlCreds = lib.auth(tenant_id =
我是一名优秀的程序员,十分优秀!