gpt4 book ai didi

Python:如何提高从vfp(dbf)到oracle加载数据的效率?

转载 作者:太空宇宙 更新时间:2023-11-03 18:56:20 25 4
gpt4 key购买 nike

全部。我使用python从dbf(vfp)文件加载数据到oracle db。但是效率不太好。记录7,000,000需要40分钟。只是我想减少循环,这是关键点。代码如下:

import sys
import cx_Oracle
from dbfpy.dbf import *

dbhost=sys.argv[1]
dbport=sys.argv[2]
dbsid=sys.argv[3]
dbuser=sys.argv[4]
dbpasswd=sys.argv[5]
schema=sys.argv[6]
tbname=sys.argv[7]
vdate=sys.argv[8]
organ=0
gap=5000

tns = cx_Oracle.makedsn(dbhost,dbport,dbsid)
db = cx_Oracle.connect(dbuser,dbpasswd,tns)
execsql = 'truncate table ' + schema + '.' + tbname
cur = db.cursor()
cur.execute(execsql)

count=0
param=[];
execsql='insert into '+ schema + '.' + tbname + ' values(:1,:2,:3,:4,:5,:6,:7,:8,:9,:10,:11)'
dbf = Dbf("E:\abc.dbf")
for rec in dbf:
param.append((vdate,rec['ZQ'],rec['TZ'],rec['TX'],rec['ZJ'],rec['ZJM'],rec['CQ'],rec['DH'],rec['RQ'],rec['ZZT'],rec['DXW']))
count += 1
if count >= gap:
cur.executemany(execsql,param);
db.commit()
param=[]
count = organ

if param:
cur.executemany(execsql,param);
db.commit()
cur.close()
db.close()
dbf.close()

大家可以帮我提高效率吗?

最佳答案

Oracle是否支持从.csv文件读取数据?如果是这样,请查看my dbf package创建一个包含必要字段的 .csv 文件(类似这样(未经测试)):

import dbf

with dbf.Table(r'c:\abc.dbf') as t:
dbf.export(t, field_names='ZQ, TZ, TX, ZJ, ZJM, CQ, DH, RQ, ZZT, DXW')

这将使用这些字段中的数据创建 c:\abc.csv

关于Python:如何提高从vfp(dbf)到oracle加载数据的效率?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17187912/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com