gpt4 book ai didi

java - 需要更好的算法来使用 Java 清理 SQL Server 表

转载 作者:行者123 更新时间:2023-11-30 11:19:48 25 4
gpt4 key购买 nike

我需要定期清理 SQL Server 表,但我的解决方案花费的时间长得离谱(73,000 条记录大约需要 12 分钟)。

我的表有 4 个字段:

id1
id2
val1
val2

对于具有相同“id1”的每组记录,我需要保留第一个(最低的 id2)和最后一个(最高的 id2)并删除介于两者之间的所有内容,除非 val1 或 val2 与之前的(次低的“id2”相比发生了变化“) 记录。

如果您到目前为止都在关注我,那么更高效的算法是什么?这是我的 Java 代码:

boolean bDEL=false;
qps = conn.prepareStatement("SELECT id1, id2, val1, val2 from STATUS_DATA ORDER BY id1, id2");
qrs = qps.executeQuery();
//KEEP FIRST & LAST, DISCARD EVERYTHING ELSE *EXCEPT* WHERE CHANGE IN val1 or val2
while (qrs.next()) {
thisID1 = qrs.getInt("id1");
thisID2 = qrs.getInt("id2");
thisVAL1= qrs.getInt("val1");
thisVAL2= qrs.getDouble("val2");
if (thisID1==lastID1) {
if (bDEL) { //Ensures this is not the last record
qps2 = conn2.prepareStatement("DELETE FROM STATUS_DATA where id1="+lastID1+" and id2="+lastID2);
qps2.executeUpdate();
qps2.close();
bDEL = false;
}
if (thisVAL1==lastVAL1 && thisVAL2==lastVAL2) {
bDEL = true;
}
} else if (bDEL) bDEL=false;
lastID1 = thisID1;
lastID2 = thisID2;
lastVAL1= thisVAL1;
lastVAL2= thisVAL2;
}

更新 2015 年 4 月 20 日上午 11:10

好的,这是我的最终解决方案 - 对于每条记录,Java 代码将 XML 记录输入到字符串中,每 10,000 条记录写入文件,然后 java 调用 SQL Server 上的存储过程并将文件名传递给读取.如果使用动态SQL执行openrowset,存储过程只能使用文件名作为变量。我将尝试处理过程执行的间隔,但到目前为止我的性能结果如下:

BEFORE (1 record delete at a time):
73,000 records processed, 101 records per second

AFTER (bulk XML import):
1.4 Million records processed, 5800 records per second

JAVA 片段:

String ts, sXML = "<DataRecords>\n";
boolean bDEL=false;
qps = conn.prepareStatement("SELECT id1, id2, val1, val2 from STATUS_DATA ORDER BY id1, id2");
qrs = qps.executeQuery();
//KEEP FIRST & LAST, DISCARD EVERYTHING ELSE *EXCEPT* WHERE CHANGE IN val1 or val2
while (qrs.next()) {
thisID1 = qrs.getInt("id1");
thisID2 = qrs.getInt("id2");
thisVAL1= qrs.getInt("val1");
thisVAL2= qrs.getDouble("val2");
if (bDEL && thisID1==lastID1) { //Ensures this is not the first or last record
sXML += "<nxtrec id1=\""+lastID1+"\" id2=\""+lastID2+"\"/>\n";
if ((i + 1) % 10000 == 0) { //Execute every 10000 records
sXML += "</DataRecords>\n"; //Close off Parent Tag
ts = String.valueOf((new java.util.Date()).getTime()); //Each XML File Uniquely Named
writeFile(sDir, "ds"+ts+".xml", sXML); //Write XML to file

conn2=dataSource.getConnection();
cs = conn2.prepareCall("EXEC SCRUB_DATA ?");
cs.setString(1, sdir + "ds"+ts+".xml");
cs.executeUpdate(); //Execute Stored Procedure
cs.close(); conn2.close();
deleteFile(SHMdirdata, "ds"+ts+".xml"); //Delete File

sXML = "<DataRecords>\n";
}
bDEL = false;
}
if (thisID1==lastID1 && thisVAL1==lastVAL1 && thisVAL2==lastVAL2) {
bDEL = true;
} else if (bDEL) bDEL=false;
} else if (bDEL) bDEL=false;
lastID1 = thisID1;
lastID2 = thisID2;
lastVAL1= thisVAL1;
lastVAL2= thisVAL2;
i++;
}
qrs.close(); qps.close(); conn.close();

sXML += "</DataRecords>\n";
ts = String.valueOf((new java.util.Date()).getTime());
writeFile(sdir, "ds"+ts+".xml", sXML);

conn2=dataSource.getConnection();
cs = conn2.prepareCall("EXEC SCRUB_DATA ?");
cs.setString(1, sdir + "ds"+ts+".xml");
cs.executeUpdate();
cs.close(); conn2.close();
deleteFile(SHMdirdata, "ds"+ts+".xml");

XML 文件输出:

<DataRecords>
<nxtrec id1="100" id2="1112"/>
<nxtrec id1="100" id2="1113"/>
<nxtrec id1="100" id2="1117"/>
<nxtrec id1="102" id2="1114"/>
...
<nxtrec id1="838" id2="1112"/>
</DataRecords>

SQL SERVER 存储过程:

PROCEDURE [dbo].[SCRUB_DATA] @floc varchar(100)     -- File Location (dir + filename) as only parameter 

BEGIN
SET NOCOUNT ON;

DECLARE @sql as varchar(max);
SET @sql = '
DECLARE @XmlFile XML

SELECT @XmlFile = BulkColumn
FROM OPENROWSET(BULK ''' + @floc + ''', SINGLE_BLOB) x;

CREATE TABLE #TEMP_TABLE (id1 INT, id2 INT);

INSERT INTO #TEMP_TABLE (id1, id2)
SELECT
id1 = DataTab.value(''@id1'', ''int''),
id2 = DataTab.value(''@id2'', ''int'')
FROM
@XmlFile.nodes(''/DataRecords/nxtrec'') AS XTbl(DataTab);

delete from D
from STATUS_DATA D
inner join #TEMP_TABLE T on ( (T.id1 = D.id1) and (T.id2 = D.id2) );
';
EXEC (@sql);
END

最佳答案

几乎可以肯定,您的性能问题不在算法中,而在实现中。假设您的清理步骤必须删除 10,000 条记录,这意味着您将有 10000 次往返数据库服务器。

不是这样做,而是将每个要删除的 id 对写入一个 XML 文件,并将该 XML 文件发送到 SQL 服务器存储过程,该过程将 XML 分解到相应的 temp 或 temp_var 表中。然后使用单个 delete from(或等效的)删除所有 10K 行。

如果您不知道如何在 TSQL 中分解 xml,那么值得花时间学习。看看a simple example要开始,只需查看“tsql shred xml”的几个搜索结果即可。

已添加

将 10K 条记录拉到客户端应该 < 1 秒。您的 Java 代码也是如此。如果您没有时间按照建议学习使用 XML,您可以快速编写一个脏存储过程,它接受 10(20、50?)对 id 并从存储过程中删除相应的记录。我经常使用 XML 方法来“批处理”来自客户端的内容。如果您的批处理“很大”,您可能会考虑在 SQL Server 上使用 BULK INSERT 命令——但是 XML 很简单而且更灵活一些,因为它可以包含嵌套的数据结构。例如,主/从关系。

已添加

我只是在本地做的

create table #tmp
(
id int not null
primary key(id)
)
GO
insert #tmp (id)
select 4
union
select 5
GO

-- now has two rows #tmp

delete from L
from TaskList L
inner join #tmp T on (T.id = L.taskID)

(2 row(s) affected)

-- and they are no longer in TaskList

即,除非您以某种方式做错了,否则这应该不是问题。您是否正在创建临时表,然后尝试在不同的数据库连接/ session 中使用它。如果 session 不同,则在第 2 个 session 中不会看到临时表。

很难想出另一种方法让我的头顶上出现这种错误。

关于java - 需要更好的算法来使用 Java 清理 SQL Server 表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23069099/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com