- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我在 Python 2.7 中使用多处理来处理非常大的数据集。随着每个进程的运行,它会将整数添加到共享的 mp.Manager.Queue() 中,但前提是其他进程尚未添加相同的整数。由于您不能对队列执行“in”式成员资格测试,因此我这样做的方法是检查每个 int 是否属于共享 mp.Manager.list() 中的成员资格。该列表最终将有大约 3000 万个条目,因此成员资格测试将非常缓慢,从而抵消了多处理的优势。
这是我正在做的事情的简化版本:
import multiprocessing as mp
def worker(shared_list, out_q, lock):
# Do some processing and get an integer
result_int = some_other_code()
# Use a lock to ensure nothing is added to the list in the meantime
lock.acquire()
# This lookup can take forever when the list is large
if result_int not in shared_list:
out_q.put(result_int)
shared_list.append(result_int)
lock.release()
manager = mp.Manager()
shared_list = manager.list()
lock = manager.lock()
out_q = manager.Queue()
for i in range(8):
p = mp.Process(target=worker, args=(shared_list, out_q, lock))
p.start()
我之前尝试使用 set() 而不是 mp.Manager.list(),但似乎每个进程都有自己的内存空间,因此当我更新集合时,它没有跨进程同步。因此,我改用了当前的方法。
以下是我之前尝试使用 set() 的大致方式:将多处理导入为 mp
def worker(shared_set, out_q, lock):
# Do some processing and get an integer
result_int = some_other_code()
# Use a lock to ensure nothing is added to the set in the meantime
lock.acquire()
# This lookup is fast, but the set doesn't reflect additions made by other processes.
if result_int not in shared_set:
out_q.put(result_int)
shared_set.add(result_int)
lock.release()
manager = mp.Manager()
lock = manager.lock()
out_q = manager.Queue()
# This set will NOT synchronize between processes
shared_set = set()
for i in range(8):
p = mp.Process(target=worker, args=(shared_set, out_q, lock))
p.start()
注意:这些示例未经测试,仅代表我的代码的相关部分。
有没有办法跨进程共享集合,或者以其他方式进行更快的成员查找?
编辑:更多信息:out_q 被另一个将数据写入单个输出文件的进程使用。不能有重复。如果我生成一个整数并且发现它是重复的,则该过程需要返回并生成下一个最佳整数。
最佳答案
一个明显的调整是使用 mp.Manager.dict()
而不是集合,并使用任意值(例如,设置 the_dict[result_int] = 1
以指示集合中的成员资格)。顺便说一句,在 Python 添加 set
类型之前,“每个人”都是这样实现集合的,即使现在,dicts 和 sets 也是通过基本相同的代码在幕后实现的。
稍后添加:我承认我不明白为什么您在原始代码中同时使用集合和列表,因为集合的键与列表的内容相同。如果输入顺序不重要,为什么不完全忘记列表呢?然后,您还可以删除原始文件中所需的锁定层,以保持集合和列表同步。
根据 dict 的建议充实它,整个函数将变成:
def worker(shared_dict):
# Do some processing and get an integer
result_int = some_other_code()
shared_dict[result_int] = 1
其他进程可以执行 shared_dict.pop()
然后一次获取一个值(虽然,不,他们不能等待 .pop()
因为他们为队列的 .get()
做。
还有一个:考虑使用本地(进程本地)集合?他们会跑得更快。然后每个工作人员都不会添加任何它知道的重复项,但跨进程可能存在重复项。您的代码没有给出任何关于 out_q
消费者做什么的提示,但如果只有一个,那么其中的本地集也可以清除跨进程重复项。或者也许内存负担太重了?无法从这里猜测 ;-)
我将建议一种不同的方法:根本不要使用 mp.Manager
。大多数时候我看到人们使用它,他们后悔了,因为它没有按照他们认为的方式做。他们的想法:它提供物理上共享的对象。它在做什么:它提供语义共享对象。在物理上,它们存在于 Yet Another 中,在幕后,进程和对象上的操作被转发到后一个进程,在那里它们由该进程在其自己的地址空间中执行。它根本不是物理上共享的。因此,虽然它可能非常方便,但即使是最简单的操作也会产生大量的进程间开销。
所以我建议在一个进程中使用单个普通集合,这将是唯一与清除重复项有关的代码。工作进程产生整数而不关心重复——它们只是传递整数。 mp.Queue
就可以了(同样,不需要 mp.Manager.Queue
)。
像这样,这是一个完整的可执行程序:
N = 20
def worker(outq):
from random import randrange
from time import sleep
while True:
i = randrange(N)
outq.put(i)
sleep(0.1)
def uniqueifier(inq, outq):
seen = set()
while True:
i = inq.get()
if i not in seen:
seen.add(i)
outq.put(i)
def consumer(inq):
for _ in range(N):
i = inq.get()
print(i)
if __name__ == "__main__":
import multiprocessing as mp
q1 = mp.Queue()
q2 = mp.Queue()
consume = mp.Process(target=consumer, args=(q2,))
consume.start()
procs = [mp.Process(target=uniqueifier, args=(q1, q2))]
for _ in range(4):
procs.append(mp.Process(target=worker, args=(q1,)))
for p in procs:
p.start()
consume.join()
for p in procs:
p.terminate()
传递给 uniqueifier
的第二个队列扮演原始队列的角色:它只提供唯一的整数。不会尝试“共享内存”,因此不会支付任何费用。唯一的进程间通信是通过简单、显式的 mp.Queue
操作。只有一组,并且由于它不以任何方式共享,所以它会尽可能快地运行。
实际上,这只是设置了一个简单的管道,尽管有多个输入。
关于python - set() 可以在 Python 进程之间共享吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37714680/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!