gpt4 book ai didi

azure - ADF 复制数据事件 - 在插入 SQL 数据库之前检查重复记录

转载 作者:行者123 更新时间:2023-12-02 07:34:18 24 4
gpt4 key购买 nike

我有一个非常简单的 ADF 管道,用于将数据从本地 mongoDB(自托管集成环境)复制到 Azure SQL 数据库。

我的 pipleline 能够从 mongoDB 复制数据并插入 SQL 数据库。目前,如果我运行管道,如果运行多次,它会插入重复的数据。

我已将 _id 列设置为 SQL 数据库中的唯一列,现在由于 SQL 约束不允许它插入记录,所以运行管道会抛出错误。

在插入 SQL 数据库之前如何检查重复的 _id?

我应该使用预复制脚本/存储过程吗?一些指导/说明将有助于了解在何处添加额外步骤。谢谢

最佳答案

Azure 数据工厂 Data Flow可以帮助您实现这一目标:

enter image description here

您可以按照以下步骤操作:

  1. 添加两个源:Cosmos 数据库表(source1) 和 SQL 数据库表(source2)。
  2. 使用Join主动获取 Cosmos table.id= SQL table.id 上两个表(左连接/全连接/右连接)的所有数据。 enter image description here

  3. AlterRow表达式过滤重复的_id,不重复则插入。 enter image description here

  4. 然后将无重复列映射到 Sink SQL 数据库表。

希望这有帮助。

关于azure - ADF 复制数据事件 - 在插入 SQL 数据库之前检查重复记录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/60859703/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com