gpt4 book ai didi

python - 如何在 python 中一次将巨大的 CSV 文件插入 SQL Server?

转载 作者:行者123 更新时间:2023-12-04 17:57:26 28 4
gpt4 key购买 nike

我有一个很大的 CSV 文件,我想一次性全部插入,而不是逐行插入。这是我的代码:

import pypyodbc

import csv

con = pypyodbc.connect('driver={SQL Server};' 'server=server_name;' 'database=DB-name;' 'trusted_connection=true')

cur = con.cursor()

csfile = open('out2.csv','r')

csv_data = csv.reader(csfile)

for row in csv_data:

try:
cur.execute("BULK INSERT INTO Table_name(Attribute, error, msg, Value, Success, TotalCount, SerialNo)" "VALUES (?, ?, ?, ?, ?, ?, ?)", row)
except Exception:
time.sleep(60)
cur.close()

con.commit()

con.close()

最佳答案

批量插入应该为您完成。

BULK
INSERT CSVTest
FROM 'c:\csvtest.txt'
WITH
(
FIELDTERMINATOR = ',',
ROWTERMINATOR = '\n'
)
GO
--Check the content of the table.
SELECT *
FROM CSVTest
GO

http://blog.sqlauthority.com/2008/02/06/sql-server-import-csv-file-into-sql-server-using-bulk-insert-load-comma-delimited-file-into-sql-server/

另外,请查看此链接。

https://www.simple-talk.com/sql/learn-sql-server/bulk-inserts-via-tsql-in-sql-server/

关于python - 如何在 python 中一次将巨大的 CSV 文件插入 SQL Server?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39163849/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com