gpt4 book ai didi

python - 快速解析大型 CSV 文件

转载 作者:太空宇宙 更新时间:2023-11-04 00:15:31 24 4
gpt4 key购买 nike

过去一周我一直在掌握 python 的窍门,终于有了一些工作,但需要一些帮助来加快它的速度

该函数从车辆 CAN 总线上获取 .CSV 日志,并将其缩减为与一组消息 ID 以及遇到的一组消息 ID 匹配的记录列表。

文件是 500,000 行到 50,000,000 行。目前在我的笔记本电脑中每行大约需要 3.2uS。

CSV 文件行如下所示:

Time [s],Packet,Type,Identifier,Control,Data,CRC,ACK
0.210436250000000,0,DATA,0x0CFAE621,0x8,0x02 0x50 0x00 0x00 0x04 0x01 0x00 0x29,0x19A8,NAK
...
...
52.936353750000002,15810,DATA,0x18FC07F4,0x8,0xF0 0x09 0x00 0x00 0xCE 0x03 0x92 0x20,0x0C47,ACK

因此第 4 个条目“0x0CFAE621”是消息 ID,第 6 个条目“0xF0 0x09 0x00 0x00 0xCE 0x03 0x92 0x20”是数据

这是用 0x00FFFF00 屏蔽的,如果匹配保存为 [0xFAE600,'F0','09','00','00','CE','03','92','20'],虽然理想情况下,此时我想将所有数据转换为 int,用 int() 包装每个数据似乎非常慢(我想我可以用 dict 来改进它来进行 Hex-Int 转换,但我没有确定如何做到这一点)

len() 和 If 树是因为消息数据可以为空到 8 条记录,我再次觉得可能有更好的方法来实现这一点。

from tkinter import filedialog
from tkinter import Tk
import timeit

Tk().withdraw()
filename = filedialog.askopenfile(title="Select .csv log file", filetypes=(("CSV files", "*.csv"), ("all files", "*.*")))

if not filename:
print("No File Selected")
else:
CanIdentifiers = set()
CanRecordData = []
IdentifierList = {0x00F00100,0x00F00400,0x00FC0800,0x00FE4000,0x00FE4E00,0x00FE5A00,0x00FE6E00,0x00FEC100,0x00FEC300,0x00FECA00,0x00FEF100}
mask = 0x00FFFF00
loopcount = 0
error = 0
csvtype = 0

start_time = timeit.default_timer()

for line in filename.readlines():
message = line.split(',')

if csvtype == 1:
if message[2] == "DATA":
messageidentifier = int(message[3], 16) & mask
if messageidentifier not in CanIdentifiers:
CanIdentifiers.add(messageidentifier)
if messageidentifier in IdentifierList:
messagedata = message[5].split("0x")
size1 = len(messagedata)
if size1 == 2:
CanRecordData.append((messageidentifier, messagedata[1]))
if size1 == 3:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2]))
if size1 == 4:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2], messagedata[3]))
if size1 == 5:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2], messagedata[3], messagedata[4]))
if size1 == 6:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2], messagedata[3], messagedata[4], messagedata[5]))
if size1 == 7:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2], messagedata[3], messagedata[4], messagedata[5], messagedata[6]))
if size1 == 8:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2], messagedata[3], messagedata[4], messagedata[5], messagedata[6], messagedata[7]))
if size1 == 9:
CanRecordData.append((messageidentifier, messagedata[1], messagedata[2], messagedata[3], messagedata[4], messagedata[5], messagedata[6], messagedata[7], messagedata[8]))

if csvtype == 0:
if message[0] == "Time [s]":
csvtype = 1
error += 1
if error == 50:
break
loopcount += 1

readtime = (timeit.default_timer() - start_time) * 1000000
print(loopcount, "Records Processed at", readtime/loopcount, "uS per Record")

最佳答案

Pandas 的 read_csv() 会给你一个 DataFrame:

    Time [s]  Packet  Type  Identifier Control                                     Data     CRC  ACK
0 0.210436 0 DATA 0x0CFAE621 0x8 0x02 0x50 0x00 0x00 0x04 0x01 0x00 0x29 0x19A8 NAK
1 52.936354 15810 DATA 0x18FC07F4 0x8 0xF0 0x09 0x00 0x00 0xCE 0x03 0x92 0x20 0x0C47 ACK

然后,根据需要拆分数据字节:

import pandas as pd
df = pd.read_csv('t.csv')
df.Data.str.split(expand=True)

这给了你:

      0     1     2     3     4     5     6     7
0 0x02 0x50 0x00 0x00 0x04 0x01 0x00 0x29
1 0xF0 0x09 0x00 0x00 0xCE 0x03 0x92 0x20

这将比 Python 循环快得多,而且存储也将更加紧凑——特别是如果您将十六进制数解析为实际整数:convert pandas dataframe column from hex string to int

关于python - 快速解析大型 CSV 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51110985/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com