gpt4 book ai didi

c# - 将 DataTable 批量复制到 MySQL(类似于 System.Data.SqlClient.SqlBulkCopy)

转载 作者:IT老高 更新时间:2023-10-29 00:11:46 41 4
gpt4 key购买 nike

我正在将我的程序从 Microsoft SQL Server 迁移到 MySQL。除了批量复制的一个问题外,一切都很好。

在使用 MS SQL 的解决方案中,代码如下所示:

connection.Open();
SqlBulkCopy bulkCopy = new SqlBulkCopy(connection);
bulkCopy.DestinationTableName = "testTable";
bulkCopy.WriteToServer(rawData);

现在我尝试为 MySQL 做一些类似的事情。因为我认为性能会很差,所以我不想将 DataTable 写入 CSV 文件并使用 MySqlBulkLoader 类从那里插入。

任何帮助将不胜感激。

最佳答案

Because I think there would be bad performance I don't want to write the DataTable to a CSV file and do the insert from there with the MySqlBulkLoader class.

不要根据毫无根据的假设排除可能的解决方案。我刚刚使用 Transaction 中的标准 MySqlDataAdapter#Update() 测试了将 100,000 行从 System.Data.DataTable 插入到 MySQL 表中>。它始终需要大约 30 秒才能运行:

using (MySqlTransaction tran = conn.BeginTransaction(System.Data.IsolationLevel.Serializable))
{
using (MySqlCommand cmd = new MySqlCommand())
{
cmd.Connection = conn;
cmd.Transaction = tran;
cmd.CommandText = "SELECT * FROM testtable";
using (MySqlDataAdapter da = new MySqlDataAdapter(cmd))
{
da.UpdateBatchSize = 1000;
using (MySqlCommandBuilder cb = new MySqlCommandBuilder(da))
{
da.Update(rawData);
tran.Commit();
}
}
}
}

(我为 UpdateBatchSize 尝试了几个不同的值,但它们似乎对运行时间没有显着影响。)

相比之下,使用 MySqlBulkLoader 的以下代码只需要运行 5 或 6 秒......

string tempCsvFileSpec = @"C:\Users\Gord\Desktop\dump.csv";
using (StreamWriter writer = new StreamWriter(tempCsvFileSpec))
{
Rfc4180Writer.WriteDataTable(rawData, writer, false);
}
var msbl = new MySqlBulkLoader(conn);
msbl.TableName = "testtable";
msbl.FileName = tempCsvFileSpec;
msbl.FieldTerminator = ",";
msbl.FieldQuotationCharacter = '"';
msbl.Load();
System.IO.File.Delete(tempCsvFileSpec);

...包括将 100,000 行从 DataTable 转储到临时 CSV 文件的时间(使用类似于 this 的代码),从该文件批量加载,然后删除文件。

关于c# - 将 DataTable 批量复制到 MySQL(类似于 System.Data.SqlClient.SqlBulkCopy),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30615443/

41 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com