- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我的用例要求我不断地将传入消息写入存储在 Azure Data Lake Gen2 存储帐户中的文件中。我可以通过触发函数来创建文件,该函数使用 python azure-storage-file-datalake SDK 与存储帐户进行交互。
问题是,默认情况下,使用 DataLakeFileClient 类的 create_file() 方法创建的文件是 block Blob(并且没有任何参数来更改创建的 Blob 类型),这意味着我无法附加数据新消息到达后发送给他们。
我尝试使用 python azure-storage-blob SDK,但是,它无法使用路径来查找数据湖容器内的文件。
这将是我如何创建文件的示例,尽管这些文件以 block Blob 的形式出现:
if int(day) in days:
day_directory_client.create_directory()
file_client = day_directory_client.create_file(f'{json_name}')
file_client.append_data(data=f'{str(message_body)}\n', offset=0,
length=len(str(message_body)))
file_client.flush_data(len(str(message_body)))
write_to_cache(year, month, day, json_path)
非常感谢我能得到的任何帮助,谢谢!
最佳答案
如果要在 Azure Data Lake Gen2 帐户中创建追加 blob,则需要使用 azure-storage-blob
包而不是 azure-storage-file-datalake
.
azure-storage-file-datalake
包是 Azure Data Lake Store REST API
的包装器它不允许您指定 blob 类型。
关于python - 无法使用 python azure-storage-file-datalake SDK 在 Azure Data Lake Gen2 中创建追加 Blob,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68943362/
我刚刚开始在 .NET 中使用 Azure Data Lake。我发现有 2 个库可用: Microsoft.Azure.Management.DataLake.Store 提供数据湖存储Micros
我想做一些简单的事情!!! 将 blob 从第二代 dataLake (SourceDataLake) 中的容器 (SourceContainer) 复制到第二个 DatLake (TargetDat
我有 2 个不同的应用程序来处理来自 Data Lake Storage Gen1 的数据。 第一个应用程序上传文件:如果同一天多次上传,现有文件将被覆盖(始终是使用 YYYY-MM-dd 格式保存的
我们正在尝试评估是否适合我们的解决方案。我们想要处理大数据,因此我们想要围绕 Hadoop 堆栈构建解决方案。我们想知道 Azure 在这些情况下如何提供帮助。我们正在构建的解决方案是 SAAS。但我
我们的突触管道出现堵塞,我们希望通过工作流程在 Lake 数据库上创建接收器。但无法选择创建的lake数据库,只显示默认的。我查看了一些论坛,但没有找到太多,他们说它正在 Microsot 开发中。请
我有一个简单的管道,带有复制数据。我正在尝试将数据从 sql 提取到数据湖。我创建了两个数据集,一个用于 sql,另一个用于 datalake。 当我们运行管道并且列具有字符串数据类型时,数据集中定义
我正在向 Azure Datalake 写入一个简单的文件,以了解如何将其用于其他方式,但我遇到了问题,当我尝试写入时,收到以下错误消息 21/5/2018 9:03:27 AM] Executed
我有一个基本流,并且有多个针对不同连续日期的增量流。我想合并它们以获得最终的流。我如何在 Azure Datalake 中完成此操作。例如,假设这些是流。我需要合并这些流以获得最终的流。合并将用新值替
我想使用剩余操作在 Azure datalake gen2 中执行操作。我有一个具有客户端 key 的服务主体,并且拥有存储帐户的所有者访问权限。我很困惑如何构建操作请求。我找不到任何合适的例子来证明
我正在尝试使用 Python SDK 迭代 Azure datalake Gen1 中的所有文件夹。我正在使用分配有所有者角色的服务主体。但是,当我尝试访问某些文件夹时,出现权限被拒绝错误。我不确定我
是否有任何在线工具可以让我们直接在Azure云中查看/编辑文本文件,而无需下载到本地计算机并使用UltraEdit或EMeditor等文本编辑器? 谢谢暗部 最佳答案 是的; Kudu 有一个出色的
string dfsUri = "https://" + accountName + ".dfs.core.windows.net"; DataLakeServiceClient dataLakeSe
我有一个存储帐户datalake Gen2。我需要将我的存储帐户日志连接到日志分析工作区。 但是没有诊断设置菜单,所以我不知道该怎么做。 我认为 datalake Gen1 支持这一点,但是 data
我的要求是将 Datalake 文件夹中的文件名与 .CSV 文件中的文件名进行比较,如果文件名匹配,那么我想复制这些文件,如果文件名不匹配,那么我想存储这些文件名在数据湖中的 .CSV 文件中。 请
我试图了解为什么我的 ACL 权限在 Databricks 中无法正常工作。 场景:我有 2 个用户。一个对文件系统具有完全权限的人。其他无任何权限。 我尝试使用两种不同的方法在 databricks
我们在 Azure Data Lake Gen 2 的分区文件夹下有 CSV 文件,因此单个大表将有多个 CSV 文件。我们希望通过创建外部表在 Azure 数据资源管理器中使用这些文件。所以我使用下
如何使用 C# 在 Azure 数据湖上创建空文件。在其中一个线程 Create File From Azure Data Lake Store .NET SDK它提到使用- FileSystemOp
我们在 Azure Data Lake Gen 2 的分区文件夹下有 CSV 文件,因此单个大表将有多个 CSV 文件。我们希望通过创建外部表在 Azure 数据资源管理器中使用这些文件。所以我使用下
如何使用 C# 在 Azure 数据湖上创建空文件。在其中一个线程 Create File From Azure Data Lake Store .NET SDK它提到使用- FileSystemOp
我正在尝试将文件从共享文件夹上传到 Azure Datalake gen 1 文件夹。 现在,我只是测试连接,并列出根目录下的文件夹: adlCreds = lib.auth(tenant_id =
我是一名优秀的程序员,十分优秀!