gpt4 book ai didi

c# - SQL Server 批量复制插入百万条记录很慢

转载 作者:太空宇宙 更新时间:2023-11-03 19:55:01 24 4
gpt4 key购买 nike

我有一个包含 100 万条记录的表。我需要能够将这些记录移动到另一个数据库和另一个表。

我正在使用存储过程来获取数据。它填充数据适配器,然后将数据 bcp 到新表中。

我们使用的是 SQL Server 2005 和 C# 4。我们将迁移到 SQL Server 2012 或 2014 以及带有 C# 4.6 或 5.0 的 Visual Studio 2015。如果有任何功能可以使它正常工作。

  • 对于 10k 条记录,该过程不到 1 秒
  • 对于 500k 记录,数据适配器内存不足,进程失败。批处理到 100k 条记录,select 语句是 SQL 中一次返回 100k 条记录的问题,每个循环需要 2 分钟。

有没有办法,或者我下面的代码有什么问题可以防止数据适配器被填充,而是映射列并让 BulkCopy 留在服务器端,只是从数据库中推送记录像 SSIS 这样的新表?

似乎大容量复制本身快如闪电,但适配器填充失败,因为它试图用 100 万条记录填充适配器时内存不足。一次不做 1 行,我只想在表之间移动数据。

一个表有 27 列,其中 5 列不在表 2 中,表 2 有 32 列,并且一些列在两个表中的名称不同。

这是概念验证 (PoC)。

sourceConn_transDB.Open();
SqlCommand sourceCommand = new SqlCommand(queryString, sourceConn_transDB);
DataTable table = new DataTable();

sourceCommand.CommandTimeout = 600;

using (var adapter = new SqlDataAdapter(sourceCommand))
{
WriteLineWithTime("Adapter Fill");
adapter.Fill(table);
}

if ((table == null) || (table.Rows.Count <= 0))
break;

using (SqlBulkCopy bulk = new SqlBulkCopy(targetConn_reportDB, SqlBulkCopyOptions.KeepIdentity, null) { DestinationTableName = "PatientEvent" })
{
bulk.ColumnMappings.Add(new SqlBulkCopyColumnMapping("PatientID", "PatientID"));
}

最佳答案

您是否尝试过使用采用IDataReaderWriteToServer 重载,然后您根本不需要使用DataTable

sourceConn_transDB.Open();
using(SqlCommand sourceCommand = new SqlCommand(queryString, sourceConn_transDB))
{
sourceCommand.CommandTimeout = 600;

using (SqlDataReader reader = sourceCommand.ExecuteReader())
using (SqlBulkCopy bulk = new SqlBulkCopy(targetConn_reportDB, SqlBulkCopyOptions.KeepIdentity, null) { DestinationTableName = "PatientEvent" })
{
bulk.ColumnMappings.Add(new SqlBulkCopyColumnMapping("PatientID", "PatientID"));
bulk.WriteToServer(reader);
}
}

关于c# - SQL Server 批量复制插入百万条记录很慢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34661946/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com