gpt4 book ai didi

azure - 如何将分区的 parquet 文件写入 blob 存储

转载 作者:行者123 更新时间:2023-12-03 05:44:03 25 4
gpt4 key购买 nike

我想通过 ADF 中的复制事件将数据从本地 SQL SERVER 加载到 Blob 存储,目标文件是 parquet,该文件的大小为 5 Gb。

管道运行良好,他编写了一个 Parquet 文件,现在我需要将此文件拆分为多个 Parquet 文件,以优化使用 Poly 基加载数据并用于其他用途。

使用 Spark,我们可以通过以下语法将文件分区为多个文件:

df.repartition(5).write.parquet("路径")

最佳答案

关于azure - 如何将分区的 parquet 文件写入 blob 存储,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56253651/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com