gpt4 book ai didi

python - 更快地比较两个列表

转载 作者:塔克拉玛干 更新时间:2023-11-03 04:28:26 24 4
gpt4 key购买 nike

我正在尝试比较两个文件,这些文件有大约 70k 行,使用我当前的算法需要大约 5 分钟才能完全比较所有文件。

基本上我所做的是获取两个文件的所有行并将它们放入列表中,因此它看起来像这样。

    compare_list_new=[['Albert','V4','25.000','45.000','1.3500'], 
['James','V4','22.000','43.000','1.4000'], ['James','V5','23.000','41.000','1.3000']]

compare_list_old=[['Albert','V4','25.000','45.000','1.3900'],
['James','V4','22.000','43.000','1.2000'], ['James','V5','23.000','41.000','1.2000']]

想法是两个文件有相似的名字,所以要在旧条目中找到新条目,我们必须根据坐标搜索,所以如果我想从新到旧找到特定的 James,我必须使用“22.000”、“43.000”。

找到条目后,我从新文件中取出 1.4000,从旧文件中取出 1.2000,然后减去它们以找到从旧文件到新文件的增量。

这是我当前使用的算法:

    # This is not important
import time
import timeit
import bisect
from operator import itemgetter
import time


compare=open("factor.output.new.txt","w")
compare_list_new=[]
compare_list_old=[]
newlist=[]

#File Count algorithm

start = time.time() # Tracks execution time

def list_create(fname): #Makes the list in the appropriate format
newlist=[]
with open(fname) as file:
for i, line in enumerate(file):
if i>6:
for line in file:
lines_list=line.split(" ")
del lines_list[0]
del lines_list[2:29]
del lines_list[5:12]
newlist.append(lines_list)
return newlist



#Creates lists and sorts them

compare_list_new=list_create("par_iop.pwr.sfactor.output_new.ipf")
compare_list_new=sorted(compare_list_new, key=itemgetter(2))
compare_list_old=list_create("par_iop.pwr.sfactor.output_old.ipf")
compare_list_old=sorted(compare_list_old, key=itemgetter(2))



compare.write("Name Version Coordinate_x Coordinate_y Sfactordelta FLAG\n")
compare_list_copy=compare_list_old #Makes a copy of the list


for item in compare_list_new: # compares both lists
end = time.time()
print(end - start)
for line in compare_list_old:
if item[0:4] == line[0:4]:
s1=float(item[4])
s2 = float(line[4])
delta=s1-s2
delta=format(delta,'.4f')
item[4]=str(delta)
text = " ".join(item)
compare.write(text +" " +"\n")
compare_list_copy.remove(line)
match=1
break
if(match==1):
compare_list_old=compare_list_copy
match=0
else:
text=" ".join(item)
compare.write(text + " " + "ITEM NOT FOUND IN OLD FILE BUT IS IN NEW FILE""\n")
try:
compare_list_copy.remove(line)
except ValueError:
pass
compare_list_old = compare_list_copy
compare.close()

本质上是比较两个列表的部分,如果它们匹配,则在对它们进行排序后,它将执行操作以获取增量并将其从副本中删除,然后使旧的等于副本,这样它就不会在遍历列表时删除项目。如果该项目不匹配,则表示它不在旧文件中,但在新文件中。

我想要一些可能使这个过程更快的东西。

最佳答案

这里有很多代码,缩进明显不正确,所以我什至不知道逻辑到底应该是什么,也没有迹象表明你认为哪一部分很慢(或者你是怎么知道的),但有一件事立刻跳出来:

compare_list_copy.remove(line)

…和另一个remove 稍后。

首先,无论何时调用 lst.remove(val),列表都必须进行线性搜索,将每个元素与 val 进行比较。但是您已经知道所需元素的索引(或者更确切地说,您可以仅通过使用 enumerate 就知道它),因此整个搜索都被浪费了;只需 del lst[idx] 即可。

其次,无论您是remove 还是del,您仍然是从数组的中间删除。这意味着将所有后续元素向上移动一个位置。它有一个更快的常量(它只是一个大的 memmove,而不是一堆对比较函数的调用),但它仍然是线性的。

并且您在内部循环中执行此操作。因此,您将 N 的额外因子乘以您已经二次方的时间。如果您只是按照对数搜索对相同数据进行线性搜索,那么您通过 bisect 以对数而不是线性时间进行搜索所付出的任何努力都将被浪费。


如果你需要一些你可以在对数时间搜索,也可以在对数时间修改的东西,你想要的是某种树(或树列表结构,如跳表)。 PyPI 上有很好的库,其中包含各种二叉树和 b 树变体,或者您可以在维基百科上查找算法。

或者您可以只获取诸如 Sorted Containers 库之类的东西,它可以在更高的层次上进行包装。例如,sorteddict 的行为很像 dict,但您可以搜索最近的键而不是精确匹配,或者搜索给定范围内的所有键等。在幕后,它与某种混合的 rope-of-btrees 或其他东西一起工作,但你不需要关心这些细节;重要的是它保证在对数时间内完成您需要的所有操作。


完成此操作后,至少两个外部循环中的一个也可以有利地转换为对数搜索(使用树几乎可以免费获得)。

此时你的总时间是 O(log**2 N * N) 而不是 O(N**3),这是一个巨大的差异。

如果您不习惯用算法复杂性来处理性能,请考虑一下:只有 1000 个元素,立方时间需要 1000*1000*1000 = 10 亿步;对数平方线性时间需要 10*10*1000 = 100,000 步。这就是天和秒之间的差异。

关于python - 更快地比较两个列表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51390354/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com