gpt4 book ai didi

Azure 数据工厂 - 复制数据事件接收器 - 每个文件属性的最大行数

转载 作者:行者123 更新时间:2023-12-03 03:54:57 26 4
gpt4 key购买 nike

我想通过 ADF 复制数据事件将大尺寸文件分成 Blob 存储内的较小块。我尝试在复制事件接收器中使用每个文件的最大行数属性来执行此操作,但我的文件没有被分成较小的文件,而是得到了相同的大文件,任何人都可以分享任何有值(value)的信息在这里?

最佳答案

我测试了一下,可以正常工作。

  1. 源数据集

enter image description here

2.来源设置

enter image description here

3.Sink数据集

enter image description here

4.Sink设置

enter image description here

结果: enter image description here

关于Azure 数据工厂 - 复制数据事件接收器 - 每个文件属性的最大行数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64908126/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com