gpt4 book ai didi

performance - 是否可以使用带有 SSIS 的 ETL 将数据上传到 Azure 数据仓库?

转载 作者:行者123 更新时间:2023-12-02 07:48:58 24 4
gpt4 key购买 nike

我有一个本地 SAP 数据库,我想每天将其中一些数据(SAP 数据库中的一些表)推送到 Azure。数据将使用合并策略上传(如果检测到更改则更新,如果记录丢失则删除,否则插入)。我正在考虑使用以下设置来执行此操作:

- Install on premise integration Services (SSIS). The client already has license for this.
- Install SAP connector on premise.
- Pull data from SAP into text files (on premise, into multiple CSV files) (create ETL's for this).
- Push those files into a Blob Storage (via AzCopy), so I create a job or process somehow locally that will handle newly created files.

- Load data into Data Warehouse using PolyBase (https://learn.microsoft.com/en-us/azure/sql-data-warehouse/sql-data-warehouse-get-started-load-with-polybase) using an UP-SERT strategy.

这肯定有效,但我想知道是否可以使用 ETL(使用 SSIS 包)直接上传该数据,基本上跳过以下步骤:

  1. 将纯文件保存到本地磁盘。
  2. 将它们推送到 Azure Blob 存储。
  3. 使用上传文件上的虚拟表从文件加载数据。

我担心的是:- 表现- 成本

你认为最好的方法是什么?

谢谢!

最佳答案

可以使用 SQL Server Integration Services (SSIS) 通过 Azure SQL DW Upload Task 将数据加载到 Azure SQL 数据仓库。这是 Azure Feature Pack for Integration Services 的一部分。此任务从本地文件共享获取文件,并在后台使用 Polybase 将它们加载到仓库表中。使用此方法,您不必显式将文件推送到 Blob 存储或使用 AzCopy。这个设计看起来像:

SAP > 平面文件 > SQL DW 上传任务

您还可以使用数据流任务将数据直接加载到仓库表,但历史上性能非常慢。我认为这种设计的优点是您不必将文件提取为平面文件。我最近没有尝试过这个,因为推荐的方法是 Polybase。这个设计看起来像:

SAP > Azure SQL 数据仓库(使用数据流任务)

可以考虑的另一种方法是 Azure 数据工厂,它现在具有 SAP 连接(对于某些产品)。您需要一个网关来促进从本地到 Azure 的复制。 ADF 可能更具可扩展性,但如果您以前没有使用过它,那么会有一些学习曲线。

关于performance - 是否可以使用带有 SSIS 的 ETL 将数据上传到 Azure 数据仓库?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45073708/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com