- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个函数:
import time
def all_40k():
for _ in range(400000):
print('validate')
print('parsing')
print('inserting')
if __name__ == '__main__':
start_time = time.time()
all_40k()
print(f'used time:{time.time()-start_time}')
输出是:
used time:9.545064210891724
因为这个相同的函数重复了 40k 次,所以我希望同时运行 4 个并行函数,每个函数运行 10k,理想情况下这会快 4 倍。
所以我首先尝试了多线程:
import threading
import time
def first_10k():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
def second_10k():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
def third_10k():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
def forth_10k():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
thread1 = threading.Thread(target=first_10k)
thread2 = threading.Thread(target=second_10k)
thread3 = threading.Thread(target=third_10k)
thread4 = threading.Thread(target=forth_10k)
thread1.start()
thread2.start()
thread3.start()
thread4.start()
if __name__ == '__main__':
start_time = time.time()
thread1.join()
thread2.join()
thread3.join()
thread4.join()
print(f'used time:{time.time()-start_time}')
令我惊讶的是,输出是:
used time:23.058093309402466
然后我尝试了 asyncio:
import time
import asyncio
async def test_1():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
async def test_2():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
async def test_3():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
async def test_4():
for _ in range(100000):
print('validate')
print('parsing')
print('inserting')
async def multiple_tasks():
input_coroutines = [test_1(), test_2(), test_3(),test_4()]
res = await asyncio.gather(*input_coroutines, return_exceptions=True)
return res
if __name__ == '__main__':
start_time = time.time()
res1, res2 ,res3,res4 = asyncio.get_event_loop().run_until_complete(multiple_tasks())
print(f'used time:{time.time()-start_time}')
输出是:
used time:9.295843601226807
最后我尝试了 ProcessPoolExecutor:
import time
from concurrent.futures import ProcessPoolExecutor
def data_handler(urls):
for i in range(urls[0], urls[1]):
print('validate')
print('parsing')
print('inserting')
def run():
urls = [(1,100000),(100001,200000),(2000001,300000),(300001,400000)]
with ProcessPoolExecutor() as excute:
excute.map(data_handler,urls)
if __name__ == '__main__':
start_time = time.time()
run()
stop_time = time.time()
print('used time %s' % (stop_time - start_time))
输出是:
used time 12.726619243621826
那么我怎样才能加快这个过程呢?我想我走错了路。有 friend 可以帮忙吗?最好的问候!
最佳答案
好的,所以你注意到了什么:
No parallelism 9.545064210891724
asyncio 9.295843601226807
multithreading 12.726619243621826
Thread Pool 23.058093309402466
首先,Asyncio 实际上并不使用线程,如果您能猜到的话,性能依赖于一些 I/O。 Asyncio 在循环中的任务之间交替,每当有人点击 await
时切换。如果不使用 await
,它最终只会一次运行一个任务,根本不会切换。
对于线程,由于 Global Interpreter Lock,只有一个线程能够控制 Python 解释器。 .你在这里最终得到的是来自不同线程的一堆争用,所有线程都试图同时工作。这种上下文切换会减慢您的应用程序。与 asyncio 类似,如果您想在等待某些 I/O 的同时安排其他工作,您实际上只会获得这些加速。
好吧,现在肯定多处理案例应该运行得更快..对吧?好吧,每个进程都有自己的解释器锁,但是,阻碍在您的 print
语句中。每个进程都被阻止试图将它们的输出发送到同一个控制台管道。让我用一个例子来告诉你。
假设我们有一个方法要运行 4 次。一次串行一次并行
def run(thread):
print(f"Starting thread: {thread}")
for i in range(500000):
print('foobar')
print(f"Finished thread: {thread}")
def run_singlethreaded():
start_time = time.time()
for thread in ["local"] * 4:
run(thread)
stop_time = time.time()
return stop_time - start_time
def run_multiprocessing():
start_time = time.time()
with ProcessPoolExecutor(max_workers=4) as ex:
ex.map(run, ["mp0", "mp1", "mp2", "mp3"])
stop_time = time.time()
return stop_time - start_time
if __name__ == '__main__':
singlethreaded_time = run_singlethreaded()
multiprocessing_time = run_multiprocessing()
print(f"Finished singlethreaded in: {singlethreaded_time}")
print(f"Finished multiprocessing in: {multiprocessing_time}")
如果我们运行它并打印时间,您会惊讶地看到:
Finished singlethreaded in: 10.513998746871948
Finished multiprocessing in: 12.252000570297241
现在,如果我们将打印更改为更简单的不会导致 IO 瓶颈的内容:
def run(thread):
print(f"Starting thread: {thread}")
for i in range(100000000):
pass
print(f"Finished thread: {thread}")
您将获得预期的并行速度:
Finished singlethreaded in: 9.816999435424805
Finished multiprocessing in: 2.503000020980835
这里重要的一点是,在并行性可以帮助您之前,您需要了解您在哪里受到资源限制。在 IO 绑定(bind)应用程序的情况下,线程或 asyncio 可能会有所帮助。对于 CPU 密集型应用程序,多处理可能很有用。在其他情况下,两者都不会真正帮助您(例如 print
语句),因为瓶颈存在于应用程序外部的系统中。希望这对您有所帮助!
关于python - 哪个是在 Python 中并行运行多个任务的最佳方式,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67411039/
有没有办法同时运行 2 个不同的代码块。我一直在研究 R 中的并行包,它们似乎都基于在循环中运行相同的函数。我正在寻找一种同时运行不同函数的方法(循环的 1 次迭代)。例如,我想在某个数据对象上创建一
无论如何增加 Parallel.For 启动后的循环次数?示例如下: var start = 0; var end = 5; Parallel.For(start, end, i => { C
我是 Golang 的新手,正在尝试了解并发和并行。我阅读了下面提到的关于并发和并行的文章。我执行了相同的程序。但没有得到相同的(混合字母和字符)输出。首先获取所有字母,然后获取字符。似乎并发不工作,
我正在寻找同时迭代 R 中两个或多个字符向量/列表的方法,例如。有没有办法做这样的事情: foo <- c('a','c','d') bar <- c('aa','cc','dd') for(i in
我对 Raku 很陌生,我对函数式方法有疑问,尤其是 reduce。 我最初有这样的方法: sub standardab{ my $mittel = mittel(@_); my $foo =
我最近花了很多时间来学习实时音频处理的细节,我发现的大多数库/工具都是c / c++代码或脚本/图形语言的形式,并在其中编译了c / c++代码。引擎盖。 使用基于回调的API,与GUI或App中的其
我正在使用 JMeter 进行图像负载测试。我有一个图像名称数组并遍历该数组,我通过 HTTP 请求获取所有图像。 -> loop_over_image - for loop controller
我整个晚上都在困惑这个问题...... makeflags = ['--prefix=/usr','--libdir=/usr/lib'] rootdir='/tmp/project' ps = se
我正在尝试提高计算图像平均值的方法的性能。 为此,我使用了两个 For 语句来迭代所有图像,因此我尝试使用一个 Parallel For 来改进它,但结果并不相同。 我做错了吗?或者是什么导致了差异?
假设您有一个并行 for 循环实现,例如ConcRT parallel_for,将所有工作放在一个 for 循环体内总是最好的吗? 举个例子: for(size_t i = 0; i < size()
我想并行运行一部分代码。目前我正在使用 Parallel.For 如何让10、20或40个线程同时运行 我当前的代码是: Parallel.For(1, total, (ii) =>
我使用 PAY API 进行了 PayPal 自适应并行支付,其中无论用户(买家)购买什么,都假设用户购买了总计 100 美元的商品。在我的自适应并行支付中,有 2 个接收方:Receiver1 和
我正在考虑让玩家加入游戏的高效算法。由于会有大量玩家,因此算法应该是异步的(即可扩展到集群中任意数量的机器)。有细节:想象有一个无向图(每个节点都是一个玩家)。玩家之间的每条边意味着玩家可以参加同一场
我有一个全局变量 volatile i = 0; 和两个线程。每个都执行以下操作: i++; System.out.print(i); 我收到以下组合。 12、21 和 22。 我理解为什么我没有得到
我有以下称为 pgain 的方法,它调用我试图并行化的方法 dist: /***************************************************************
我有一个 ruby 脚本读取一个巨大的表(约 2000 万行),进行一些处理并将其提供给 Solr 用于索引目的。这一直是我们流程中的一大瓶颈。我打算在这里加快速度,我想实现某种并行性。我对 Ru
我正在研究 Golang 并遇到一个问题,我已经研究了几天,我似乎无法理解 go routines 的概念以及它们的使用方式。 基本上我是在尝试生成数百万条随机记录。我有生成随机数据的函数,并将创建一
我希望 for 循环使用 go 例程并行。我尝试使用 channel ,但没有用。我的主要问题是,我想在继续之前等待所有迭代完成。这就是为什么在它不起作用之前简单地编写 go 的原因。我尝试使用 ch
我正在使用 import Control.Concurrent.ParallelIO.Global main = parallel_ (map processI [1..(sdNumber runPa
我正在尝试通过 makePSOCKcluster 连接到另一台计算机: library(parallel) cl ... doTryCatch -> recvData -> makeSOCKm
我是一名优秀的程序员,十分优秀!