gpt4 book ai didi

sql - 如何加速具有数百万行的简单 UPDATE 查询?

转载 作者:行者123 更新时间:2023-12-02 00:49:48 25 4
gpt4 key购买 nike

如何加速这个相当简单的 UPDATE 查询?已经运行了 5 个多小时了!

我基本上是通过加入一个包含旧 ID 和新 ID 的新表来替换表中的 SourceID。所有这些字段都是 VARCHAR(72) 并且必须保持这种状态。

Pub_ArticleFaculty 表有 8,354,474 行(830 万行)。 ArticleAuthorOldNew 有 99,326,472 行(9930 万),只有您在下面看到的 2 个字段。

所有这些字段都有单独的非聚集索引。有没有更好的方法来编写这个查询以使其运行得更快?

UPDATE PF
SET PF.SourceId = AAON.NewSourceId
FROM AA..Pub_ArticleFaculty PF WITH (NOLOCK)
INNER JOIN AA2..ArticleAuthorOldNew AAON WITH (NOLOCK)
ON AAON.OldFullSourceId = PF.SourceId

最佳答案

根据我的经验,循环更新以便每次迭代只作用于少量行是一个好方法。每次迭代更新的理想行数很大程度上取决于您的环境和您正在使用的表。我通常每次迭代保留 1,000 - 10,000 行左右。

示例

SET ROWCOUNT 1000 -- Set the batch size (number of rows to affect each time through the loop).
WHILE (1=1) BEGIN

UPDATE PF
SET NewSourceId = 1
FROM AA..Pub_ArticleFaculty PF WITH (NOLOCK)
INNER JOIN AA2..ArticleAuthorOldNew AAON WITH (NOLOCK)
ON AAON.OldFullSourceId = PF.SourceId
WHERE NewSourceId IS NULL -- Only update rows that haven't yet been updated.

-- When no rows are affected, we're done!
IF @@ROWCOUNT = 0
BREAK
END
SET ROWCOUNT 0 -- Reset the batch size to the default (i.e. all rows).
GO

关于sql - 如何加速具有数百万行的简单 UPDATE 查询?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34866751/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com