- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章python使用多进程的实例详解由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
python多线程适合IO密集型场景,而在CPU密集型场景,并不能充分利用多核CPU,而协程本质基于线程,同样不能充分发挥多核的优势.
针对计算密集型场景需要使用多进程,python的multiprocessing与threading模块非常相似,支持用进程池的方式批量创建子进程.
•创建单个Process进程(使用func) 。
只需要实例化Process类,传递函数给target参数,这点和threading模块非常的类似,args为函数的参数 。
1
2
3
4
5
6
7
8
9
10
11
|
import
os
from
multiprocessing
import
Process
# 子进程要执行的代码
def
task(name):
print
(
'run child process %s (%s)...'
%
(name, os.getpid()))
if
__name__
=
=
'__main__'
:
print
(
'parent process %s.'
%
os.getpid())
p
=
Process(target
=
task, args
=
(
'test'
,))
p.start()
p.join()
print
(
'process end.'
)
|
•创建单个Process进程(使用class) 。
继承Process类,重写run方法创建进程,这点和threading模块基本一样 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
|
import
multiprocessing
import
os
from
multiprocessing
import
current_process
class
Worker(multiprocessing.Process):
def
run(
self
):
name
=
current_process().name
# 获取当前进程的名称
print
(
'run child process <%s> (%s)'
%
(name, os.getpid()))
print
(
'In %s'
%
self
.name)
return
if
__name__
=
=
'__main__'
:
print
(
'parent process %s.'
%
os.getpid())
p
=
Worker()
p.start()
p.join()
print
(
'process end.'
)
*
停止进程
|
terminate()结束子进程,但是会导致子进程的资源无法释放掉,是不推荐的做法,因为结束的时候不清楚子线程的运行状况,有很大可能性导致子线程在不恰当的时刻被结束.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
import
multiprocessing
import
time
def
worker():
print
(
'starting worker'
)
time.sleep(
0.1
)
print
(
'finished worker'
)
if
__name__
=
=
'__main__'
:
p
=
multiprocessing.Process(target
=
worker)
print
(
'执行前:'
, p.is_alive())
p.start()
print
(
'执行中:'
, p.is_alive())
p.terminate()
# 发送停止号
print
(
'停止:'
, p.is_alive())
p.join()
print
(
'等待完成:'
, p.is_alive())
|
•直接创建多个Process进程 。
1
2
3
4
5
6
7
8
9
10
|
import
multiprocessing
def
worker(num):
print
(f
'Worker:%s %s'
, num)
return
if
__name__
=
=
'__main__'
:
jobs
=
[]
for
i
in
range
(
5
):
p
=
multiprocessing.Process(target
=
worker, args
=
(i,))
jobs.append(p)
p.start()
|
•使用进程池创建多个进程 。
在利用Python进行系统管理的时候,特别是同时操作多个文件目录,或者远程控制多台主机,并行操作可以节约大量的时间。当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态成生多个进程,十几个还好,但如果是上百个,上千个目标,手动的去限制进程数量却又太过繁琐,此时可以发挥进程池的功效.
Pool可以提供指定数量的进程供用户调用,当有新的请求提交到pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到池中有进程结束,才会创建新的进程来它.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
import
os
import
random
import
time
from
multiprocessing
import
Pool
from
time
import
ctime
def
task(name):
print
(
'start task %s (%s)...'
%
(name, os.getpid()))
start
=
time.time()
time.sleep(random.random()
*
3
)
print
(
'end task %s runs %0.2f seconds.'
%
(name, (time.time()
-
start)))
if
__name__
=
=
'__main__'
:
print
(
'parent process %s.'
%
os.getpid())
p
=
Pool()
# 初始化进程池
for
i
in
range
(
5
):
p.apply_async(task, args
=
(i,))
# 追加任务 apply_async 是异步非阻塞的,就是不用等待当前进程执行完毕,随时根据系统调度来进行进程切换。
p.close()
p.join()
# 等待所有结果执行完毕,会等待所有子进程执行完毕,调用join()之前必须先调用close()
print
(f
'all done at: {ctime()}'
)
|
如果关心每个进程的执行结果,可以使用返回结果的get方法获取,代码如下 。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
import
os
import
random
import
time
from
multiprocessing
import
Pool, current_process
from
time
import
ctime
def
task(name):
print
(
'start task %s (%s)...'
%
(name, os.getpid()))
start
=
time.time()
time.sleep(random.random()
*
3
)
print
(
'end task %s runs %0.2f seconds.'
%
(name, (time.time()
-
start)))
return
current_process().name
+
'done'
if
__name__
=
=
'__main__'
:
print
(
'parent process %s.'
%
os.getpid())
result
=
[]
p
=
Pool()
# 初始化进程池
for
i
in
range
(
5
):
result.append(p.apply_async(task, args
=
(i,)))
# 追加任务 apply_async 是异步非阻塞的,就是不用等待当前进程执行完毕,随时根据系统调度来进行进程切换。
p.close()
p.join()
# 等待所有结果执行完毕
for
res
in
result:
print
(res.get())
# get()函数得出每个返回结果的值
print
(f
'all done at: {ctime()}'
)
|
总结 。
以上所述是小编给大家介绍的python使用多进程的实现代码,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对我网站的支持! 。
原文链接:https://www.cnblogs.com/chenqionghe/p/9674596.html 。
最后此篇关于python使用多进程的实例详解的文章就讲到这里了,如果你想了解更多关于python使用多进程的实例详解的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我是 Linux 的新手,并且继承了保持我们的单一 Linux 服务器运行的职责。这是我们的SVN服务器,所以比较重要。 原来在我之前维护它的人有一个 cron 任务,当有太多 svnserve 进程
Node 虽然自身存在多个线程,但是运行在 v8 上的 JavaScript 是单线程的。Node 的 child_process 模块用于创建子进程,我们可以通过子进程充分利用 CPU。范例:
Jenkins 有这么多进程处于事件状态是否正常? 我检查了我的设置,我只配置了 2 个“执行者”... htop http://d.pr/i/RZzG+ 最佳答案 您不仅要限制 Master 中的执
我正在尝试在 scala 中运行这样的 bash 命令: cat "example file.txt" | grep abc Scala 有一个特殊的流程管道语法,所以这是我的第一个方法: val f
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
我需要一些帮助来理解并发编程的基础知识。事实上,我读得越多,就越感到困惑。因此,我理解进程是顺序执行的程序的一个实例,并且它可以由一个或多个线程组成。在单核CPU中,一次只能执行一个线程,而在多核CP
我的问题是在上一次集成测试后服务器进程没有关闭。 在integration.rs中,我有: lazy_static! { static ref SERVER: Arc> = {
我正在使用 Scala scala.sys.process图书馆。 我知道我可以用 ! 捕获退出代码和输出 !!但是如果我想同时捕获两者呢? 我看过这个答案 https://stackoverflow
我正在开发一个C++类(MyClass.cpp),将其编译为动态共享库(MyClass.so)。 同一台Linux计算机上运行的两个不同应用程序将使用此共享库。 它们是两个不同的应用程序。它不是多线程
我在我的 C 程序中使用 recvfrom() 从多个客户端接收 UDP 数据包,这些客户端可以使用自定义用户名登录。一旦他们登录,我希望他们的用户名与唯一的客户端进程配对,这样服务器就可以通过数据包
如何更改程序,以便函数 function_delayed_1 和 function_delayed_2 仅同时执行一次: int main(int argc, char *argv[]) {
考虑这两个程序: //in #define MAX 50 int main(int argc, char* argv[]) { int *count; int fd=shm
请告诉我如何一次打开三个终端,这样我的项目就可以轻松执行,而不必打开三个终端三次然后运行三个exe文件。请问我们如何通过脚本来做到这一点,即打开三个终端并执行三个 exe 文件。 最佳答案 在后台运行
我编写了一个监控服务来跟踪一组进程,并在服务行为异常、内存使用率高、超出 CPU 运行时间等时发出通知。 这在我的本地计算机上运行良好,但我需要它指向远程机器并获取这些机器上的进程信息。 我的方法,在
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 8年前关闭。 Improve this qu
我有一个允许用户上传文件的应用程序。上传完成后,必须在服务器上完成许多处理步骤(解压、存储、验证等...),因此稍后会在一切完成后通过电子邮件通知用户。 我见过很多示例,其中 System.Compo
这个问题对很多人来说可能听起来很愚蠢,但我想对这个话题有一个清晰的理解。例如:当我们在 linux(ubuntu, x86) 上构建一个 C 程序时,它会在成功编译和链接过程后生成 a.out。 a.
ps -eaf | grep java 命令在这里不是识别进程是否是 java 进程的解决方案,因为执行此命令后我的许多 java 进程未在输出中列出。 最佳答案 简答(希望有人写一个更全面的): 获
我有几个与内核态和用户态的 Windows 进程相关的问题。 如果我有一个 hello world 应用程序和一个暴露新系统调用 foo() 的 hello world 驱动程序,我很好奇在内核模式下
我找不到很多关于 Windows 中不受信任的完整性级别的信息,对此有一些疑问: 是否有不受信任的完整性级别进程可以创建命名对象的地方? (互斥锁、事件等) 不受信任的完整性级别进程是否应该能够打开一
我是一名优秀的程序员,十分优秀!