- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有超过一百万次的快照文件需要合并并创建一个文件/数据库进行分析。
我尝试在下面的代码中执行此操作。首先,我从 URL 列表中读取一个小的 csv,提取几列,从文本到日期解析日期字段并将其写入 sqlite 数据库。
虽然此代码在一小部分文件上运行良好,但对于迭代超过一百万个 CSV 来说太慢了。
我不确定如何提高性能,甚至不确定 Python 是否适合这项工作。任何有助于改进此代码或建议的帮助将不胜感激。
import pandas as pd
from sqlalchemy import create_engine
import datetime
import requests
import csv
import io
csv_database2 = create_engine('sqlite:///csv_database_test.db')
col_num = [0,8,9,12,27,31]
with open('url.csv','r') as line_list:
reader = csv.DictReader(line_list,)
for line in reader:
data = requests.get(line['URL'])
df = pd.read_csv(io.StringIO(data.text), usecols=col_num, infer_datetime_format=True)
df.columns.values[0] = 'DateTime'
df['ParseDateTime'] = [datetime.datetime.strptime(t, "%a %b %d %H:%M:%S %Y") for t in df.DateTime]
df.to_sql('LineList', csv_database2, if_exists='append')
最佳答案
恕我直言,python 非常适合这项任务,只需进行简单的修改,您就可以获得所需的性能。
AFAICS 可能存在两个影响性能的瓶颈:
您一次下载一个文件,如果下载一个文件需要 0.2 秒,下载 1M 文件则需要 > 2 天!我建议您将下载并行化,示例代码使用 concurrent.futures
:
from concurrent.futures import ThreadPoolExecutor
import requests
def insert_url(line):
"""download single csv url and insert it to SQLite"""
data = requests.get(line['URL'])
df = pd.read_csv(io.StringIO(data.text), usecols=col_num,
infer_datetime_format=True)
df.columns.values[0] = 'DateTime'
df['ParseDateTime'] = [
datetime.datetime.strptime(t, "%a %b %d %H:%M:%S %Y") for t in
df.DateTime]
df.to_sql('LineList', csv_database2, if_exists='append')
with ThreadPoolExecutor(max_workers=128) as pool:
pool.map(insert_url, lines)
尝试查看如何优化 SQL 插入 this所以回答。
关于Python:读取超过 1M 的小型 csv 文件并写入数据库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48977607/
我使用这个 cmd 应用程序 https://github.com/tokland/youtube-upload 上传 50 个视频后,我收到此错误: [RequestError] Server re
尝试将 docker 容器提交到镜像时出现错误: [root@dockerregistry /]# docker commit da4180ab1536 dockerregistry:5000/myi
我只是想知道这样做会更好吗: if((fd = open(filename, O_RDWR)) == -1) { fprintf(stderr, "open [ %s ]\n", strerror(e
我在我的开发机器(单个笔记本)中使用 Elasticsearch 1.4.4。一切都设置为默认值,因为我从未更改过任何设置。 当我启动它时,我通常会收到以下消息: [2015-10-27 09:38:
我收到错误 Lock wait timeout exceeded;尝试重新启动事务。这是什么原因,如何解决?仅供引用:MySQL 配置文件中的 innodb_lock_wait_timeout = 1
我对 Slack 中的 block 功能有疑问。有人设法构建 3 列而不是 2 列吗? 我凭直觉尝试了以下代码,但它不起作用: { "blocks": [ {
div 中的内容超过由 css 决定的固定大小。 #fixeddiv { position: fixed; margin: auto; max-height: 300px
我想将 EditText 字段限制为 150 个字符,我可以很容易地做到这一点。但是,当用户试图超过该限制时,我还需要通过键入(即第 151 个字符)或粘贴超过 150 个字符来提醒用户。 解决这个问
我目前正在使用此代码并排记录两个窗口: ffmpeg -f gdigrab -framerate 30 -i title="" -f gdigrab -framerate 30 -i title=""
我在几个包含长字符串的单元格上使用嵌套的 SUBSTITUE 函数,并定期更新 SUBSTITUE fx,这导致我将其复制并粘贴到所有需要它的单元格中。问题是,我的 SUBSTITUTE 列表会随着时
我创建了一个标题 div,如下所示:
Here is the demo link 您怎么看,页面中只有 8 个广告可见,但我有 14 个广告。我已阅读有关广告限制的信息 here但不明白是不是我的情况?有人可以给我确切的答案,为什么我看不
我的非常简单的算法 - C 中的快速排序有问题。它非常有效(随机化大约 0.1 秒并检查列表是否已排序)但是当我想要对超过 500k 的元素进行排序时它会崩溃。不幸的是,我需要对它们进行更多排序,因为
我成功解决了一个关于 Hackerrank 的问题,它通过了所有测试用例,但我得到了一个错误,超过了时间限制。我猜如果我优化我的代码它会工作,但我想不出任何方法来使我的代码更有效率。 问题是: 对大小
你会如何用 包围下面的文字3 个反引号 ```使用 tpope 的 Vim Surround . 我所能做的就是 1 个反引号 使用 S`在视觉模式下: 最佳答案 这不是你问的,但这可以在没有环绕的情
我目前有一个模拟账户。我正在尝试为我的雇主使用 SwifType 制作 POC。我们有一个非常大的数据库,每 1 小时索引一次,并创建一个 JSON 文件。我认为与 Elastic 的集成将非常容易,
我为一个大约有 100 到 120 名成员的小型组织维护网站。 每个月,我们都会发送一封电子邮件,通知我们的成员我们将在即将举行的 session 中讨论的主题。 我正在尝试使用我们的网站为我们提供一
这个问题已经有答案了: How to automatically input an array formula as string with more than 255 characters in l
我有一个在 JBoss 6.1 中运行的 JSF 应用程序,它使用内部Tomcat Servlet 容器。 我已经通过apache commons文件上传实现了上传。我想防止上传过大的文件并设置了属性
当我尝试在 PyMySQL 上执行查询时,出现以下错误: pymysql.err.InternalError: (1205, 'Lock wait timeout exceeded; try rest
我是一名优秀的程序员,十分优秀!