gpt4 book ai didi

python - 与多个字典中的给定键对应的值集的交集

转载 作者:太空宇宙 更新时间:2023-11-03 21:07:30 24 4
gpt4 key购买 nike

我正在创建一个变量,用于测量 3 个不同字典中给定键的值子样本的大小。例如,我想要与字典 dict_a 中的键 A1 、字典 dict_b 中的键 b2 和字典 dict_c 中的键 c5 对应的值集(即与来自 3 个字典的给定键对应的值集的交集)。

我编写了一个使用循环执行此操作的代码,如下所示:

import numpy as np


dict_a = {'a1':[1,3,4], 'a2':[1,5,6,7,8,9,13]}
dict_b = {'b1':[85,7,25], 'b2':[1,8,10,70], 'b3':[1,5,69,13], 'b4':[1,75,15,30]}
dict_c = {'c1':[1,3,4], 'c2':[725,58,2,89], 'c3':[5,684,6,8,2], 'c4':[4,8,88,55,75,2,8], 'c5':[8,5,6,28,24,6], 'c6':[8,52,3,58,26,2]}

keys_a = list(dict_a.keys())
keys_b = list(dict_b.keys())
keys_c = list(dict_c.keys())


a= []
b= []
c= []
size = []
for y in keys_a:
for u in keys_b:
for w in keys_c:
a.append(u)
b.append(w)
c.append(y)

# Define subsample
subsample = np.intersect1d(dict_a[y],dict_b[u],dict_c[w])
size.append(len(subsample))

问题是我的字典比示例中的要大得多,这需要很长时间才能运行。

有没有办法提高效率?

最佳答案

使用集合怎么样?

size = []
for y in keys_a:
for u in keys_b:
for w in keys_c:
common = set.intersection(set(dict_a[y]),
set(dict_b[u]),
set(dict_c[w]))
size.append(len(common))

计算集合的交集也应该比先将数字列表转换为数组然后使用 np.intersection 要快得多。

您可以将此方法用于列表中的任何可哈希类型。

关于python - 与多个字典中的给定键对应的值集的交集,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55304298/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com