gpt4 book ai didi

复制期间的 Azure Cosmos DB 限制

转载 作者:行者123 更新时间:2023-12-02 02:47:01 25 4
gpt4 key购买 nike

我在 Azure 数据工厂中设置了一个复制管道,它每天将 Cosmos DB 中的所有内容复制到 Azure Data Lake。复印时。 RU/s 出现峰值。我不想增加吞吐量。

我可以采取什么措施来降低影响?例如我可以设置复制管道的限制吗?

enter image description here

最佳答案

正如 @David 在评论中所说,与 Cosmos DB 的任何交互都需要消耗 Rus。 RU的设置是费用和绩效的重要指标。更多详情,可以引用这个official article .

基本上,RU 指标会受到 adf 复制事件的影响,并且 cosmos db 不会自动调整吞吐量设置。

如果您确实想临时调整吞吐量设置,您可以执行http trigger azure functionazure function activity在复制事件的头部和尾部访问。在该事件中,通过sdk或rest api适当调整吞吐量设置。(请引用案例:Cosmos Db Throughput)

关于复制期间的 Azure Cosmos DB 限制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54227113/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com