gpt4 book ai didi

python - 读取 csv 并插入数据库性能

转载 作者:数据小太阳 更新时间:2023-10-29 03:06:20 25 4
gpt4 key购买 nike

我的任务是逐行读取一个 csv 文件并将它们插入数据库。

csv 文件包含大约 170 万行。

我将 python 与 sqlalchemy orm(合并函数)结合使用来执行此操作。但它花了五个多小时。

是python性能慢还是sqlalchemy或sqlalchemy导致的?

或者如果我用golang来实现明显更好的性能怎么办?(但是我没有go上的经验,而且这个工作需要每个月安排)

希望大佬给点建议,谢谢!

更新:数据库-mysql

最佳答案

对于这样的任务,您不想逐行插入数据:)基本上,您有两种方法:

  1. 确保 sqlalchemy 不会逐一运行查询。请改用 BATCH INSERT 查询 ( How to do a batch insert in MySQL)。
  2. 以您需要的方式处理您的数据,然后将其输出到某个临时 CSV 文件中,然后按照上面的建议运行 LOAD DATA [LOCAL] INFILE。如果您不需要预处理数据,只需将 CSV 提供给数据库(我假设它是 MySQL)

关于python - 读取 csv 并插入数据库性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36147293/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com