- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
这是代码的一部分。
if(rank==0) {
temp=10000;
var=new char[temp] ;
MPI_Send(&temp,1,MPI_INT,1,tag,MPI_COMM_WORLD);
MPI_Send(var,temp,MPI_BYTE,1,tag,MPI_COMM_WORLD);
//MPI_Wait(&req[0],&sta[1]);
}
if(rank==1) {
MPI_Irecv(&temp,1,MPI_INT,0,tag,MPI_COMM_WORLD,&req[0]);
MPI_Wait(&req[0],&sta[0]);
var=new char[temp] ;
MPI_Irecv(var,temp,MPI_BYTE,0,tag,MPI_COMM_WORLD,&req[1]);
MPI_Wait(&req[0],&sta[0]);
}
//I am talking about this MPI_Barrier
MPI_Barrier(MPI_COMM_WORLD);
cout << MPI_Wtime()-t1 << endl ;
cout << "hello " << rank << " " << temp << endl ;
MPI_Finalize();
}
<强>1。使用 MPI_Barrier 时 - 正如预期的那样,所有过程花费的时间几乎相同,约为 0.02
<强>2。当不使用 MPI_Barrier() 时 - 根进程(发送消息)等待一些额外的时间。并且 (MPI_Wtime -t1)
变化很大,根进程花费的时间大约为 2 秒。
如果我没记错的话,MPI_Barrier 仅用于将所有正在运行的进程置于同一级别。那么为什么我使用 MPI_Barrier() 的时间不是 2 秒(所有进程的最小值。例如根进程)。请解释一下?
最佳答案
感谢 Wesley Bland 注意到您在同一请求上等待了两次。这是对实际发生情况的解释。
MPI 中的异步(非阻塞)操作有一个叫做progress 的东西。那是实际传输发生的时间。进展可能以许多不同的方式发生在 MPI 库中的许多不同点。当您发布一个异步操作时,它的进程可能会无限期地推迟,甚至直到调用 MPI_Wait
、MPI_Test
或一些会导致新消息被推送到的调用或从传输/接收队列中拉出。这就是为什么在非阻塞操作启动后尽快调用 MPI_Wait
或 MPI_Test
非常重要。
Open MPI 支持后台进程线程,即使不满足上一段中的条件,它也会负责操作的进程,例如如果从未在请求句柄上调用 MPI_Wait
或 MPI_Test
。这必须在构建库时明确启用。默认情况下不启用它,因为后台进程会增加操作的延迟。
在您的情况下,您第二次在接收器中调用 MPI_Wait
时正在等待不正确的请求,因此第二个 MPI_Irecv
操作的进程是推迟。消息的大小超过 40 KiB(10000 乘以 4 字节 + 信封开销),高于 Open MPI 中的默认急切限制 (32 KiB)。此类消息是使用会合协议(protocol)发送的,该协议(protocol)要求发送和接收操作都被发布和进行。接收操作不会进行,因此排名 0 中的发送操作会阻塞,直到某个时间点 MPI_Finalize
在排名 1 中调用的清理例程最终会进行接收。
当您调用 MPI_Barrier
时,它会导致未完成接收的进展,其作用几乎类似于对 MPI_Wait
的隐式调用。这就是为什么排名 0 的发送很快完成并且两个进程都及时进行。
请注意 MPI_Irecv
,紧接着 MPI_Wait
等同于简单地调用 MPI_Recv
。后者不仅更简单,而且更不容易出现像您所做的那样的简单拼写错误。
关于c++ - 使用 MPI_Barrier() 后 MPI_Wtime() 的巨大差异?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17375144/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!