- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有一个二维数组的一维数组表示:下面是一个 6x6 的例子:
[00000012300456700890100234500000] => [------]
[|0123|]
[|4567|]
[|8901|]
[|2345|]
[------]
典型大小为 514*514 个元素(512 + 2 个光环单元)。我必须在四个处理器之间分配数据:
Rank 0: Rank 1: Rank 2: Rank 3:
[----] [----] [|456] [567|]
[|012] [123|] [|890] [901|]
[|456] [567|] [|234] [345|]
[|890] [901|] [----] [----]
也就是说,在某种程度上,数据的最右边部分进入排名 0 也必须进入数据的左侧部分进入排名 1,依此类推所有其他邻居对。
我知道如何制作大小为 4x4 的数据类型,但不知道如何将该数组的最后一个元素作为新元素的开始重新发送到另一个级别。
如何分发重叠的数据?
===编辑===
在使用你的实现后,Jonathon...
我目前正尝试使用字符数组 (2D) 执行此操作,但在从处理器/队列中收集它们时收到“垃圾”。我更改了类型和所有内容,但目前无法弄清楚问题出在哪里。
void distributeBySend_c(unsigned char **global, const int globalrows, const int globalcols,
const int localrows, const int localcols,
const int rank, const int size,
MPI_Comm cartcomm, const int dims[2], const int coords[2]) {
MPI_Request reqs[dims[0]*dims[1]];
const int tag = 1;
if (rank == 0) {
MPI_Datatype block;
int starts[2] = {0,0};
int subsizes[2] = {localrows, localcols};
int sizes[2] = {globalrows, globalcols};
MPI_Type_create_subarray(2, sizes, subsizes, starts, MPI_ORDER_C, MPI_CHAR, &block);
MPI_Type_commit(&block);
int reqno=0;
for (int i=0; i<dims[0]; i++) {
int startrow = i*datasize;
int destcoords[2];
destcoords[0] = i;
for (int j=0; j<dims[1]; j++) {
int startcol = j*datasize;
destcoords[1] = j;
int dest;
MPI_Cart_rank(cartcomm, destcoords, &dest);
MPI_Isend(&(global[startrow][startcol]), 1, block, dest, tag, cartcomm, &reqs[reqno++]);
}
}
}
unsigned char **local = alloc2dImage(localrows, localcols);
MPI_Recv(&(local[0][0]), localrows*localcols, MPI_CHAR, 0, tag, cartcomm, MPI_STATUS_IGNORE);
if (rank == 0)
MPI_Waitall(dims[0]*dims[1], reqs, MPI_STATUS_IGNORE);
eachprintarr_c(local, localrows, localcols, rank, size);
}
我得到的结果是:
---
Rank 0: ? ? ? ?
Rank 0: � ' V �
Rank 0: � ' V �
Rank 0: � ' V �
---
Rank 1: ? ? ? ?
Rank 1: � � � %
Rank 1: � � � %
Rank 1: � � � %
---
Rank 2: ? + + +
Rank 2: � � � �
Rank 2: � � � �
Rank 2: � � � �
---
Rank 3: + + + ?
Rank 3: � � �
Rank 3: � � �
Rank 3: � � �
最佳答案
不幸的是,您不能使用 MPI_Scatterv 执行此操作,因为发送的数据重叠。
您最好的选择是使用发送/接收手动执行此操作,这很简单,但扩展性不是很好;或者只分散“内部”数据,让处理器进行典型的保护单元/光环交换以获得他们需要的重叠数据。双向编码:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include "mpi.h"
char **alloc2d(const int n, const int m);
void free2d(char **p);
void printarr(const char **const arr, const int n, const int m, const char *pref);
void eachprintarr(const char **const arr, const int n, const int m, const int myrank, const int size);
const int datasize = 2;
const int halosize = 1;
void distributeBySend(const char **const global, const int globalrows, const int globalcols,
const int localrows, const int localcols,
const int rank, const int size,
MPI_Comm cartcomm, const int dims[2], const int coords[2]) {
MPI_Request reqs[dims[0]*dims[1]];
const int tag = 1;
if (rank == 0) {
MPI_Datatype block;
int starts[2] = {0,0};
int subsizes[2] = {localrows, localcols};
int sizes[2] = {globalrows, globalcols};
MPI_Type_create_subarray(2, sizes, subsizes, starts, MPI_ORDER_C, MPI_CHAR, &block);
MPI_Type_commit(&block);
int reqno=0;
for (int i=0; i<dims[0]; i++) {
int startrow = i*datasize;
int destcoords[2];
destcoords[0] = i;
for (int j=0; j<dims[1]; j++) {
int startcol = j*datasize;
destcoords[1] = j;
int dest;
MPI_Cart_rank(cartcomm, destcoords, &dest);
MPI_Isend(&(global[startrow][startcol]), 1, block, dest, tag, cartcomm, &reqs[reqno++]);
}
}
}
char **local = alloc2d(localrows, localcols);
MPI_Recv(&(local[0][0]), localrows*localcols, MPI_CHAR, 0, tag, cartcomm, MPI_STATUS_IGNORE);
if (rank == 0)
MPI_Waitall(dims[0]*dims[1], reqs, MPI_STATUS_IGNORE);
eachprintarr((const char **const)local, localrows, localcols, rank, size);
}
void scatterAndExchange(const char **const global, const int globalrows, const int globalcols,
const int localrows, const int localcols,
const int rank, const int size,
MPI_Comm cartcomm, const int dims[2], const int coords[2]) {
const int lefttag=1, righttag=2, uptag=3, downtag=4;
char **local = alloc2d(localrows, localcols);
for (int i=0; i<localrows; i++)
for (int j=0; j<localcols; j++)
local[i][j] = '.';
MPI_Datatype tmp, globalblock;
MPI_Datatype localblock;
/* send just the interior data to the processors */
int starts[2] = {0,0};
int subsizes[2] = {datasize, datasize};
int sizes[2] = {globalrows, globalcols};
MPI_Type_create_subarray(2, sizes, subsizes, starts, MPI_ORDER_C, MPI_CHAR, &tmp);
MPI_Type_create_resized(tmp, 0, sizeof(char), &globalblock);
MPI_Type_commit(&globalblock);
starts[0] = halosize; starts[1] = halosize;
sizes[0] = localrows; sizes[1] = localcols;
MPI_Type_create_subarray(2, sizes, subsizes, starts, MPI_ORDER_C, MPI_CHAR, &localblock);
MPI_Type_commit(&localblock);
int displs[size];
int counts[size];
for (int dest=0; dest<size; dest++) {
int destcoords[2];
MPI_Cart_coords(cartcomm, dest, 2, destcoords);
int row = halosize + destcoords[0]*datasize;
int col = halosize + destcoords[1]*datasize;
counts[dest] = 1;
displs[dest] = col + row*globalcols;
}
const char *ptr = (rank == 0 ? &(global[0][0]) : NULL ) ;
MPI_Scatterv( ptr, counts, displs, globalblock,
&(local[0][0]), 1, localblock,
0, cartcomm);
/* now send overlap data to neighbors above and below */
int left, right, up, down;
MPI_Cart_shift(cartcomm, 1, 1, &left, &right);
MPI_Cart_shift(cartcomm, 0, 1, &down, &up);
MPI_Sendrecv(&(local[localrows-2*halosize][0]), halosize*localcols, MPI_CHAR, up, uptag,
&(local[0][0]), halosize*localcols, MPI_CHAR, down, uptag,
cartcomm, MPI_STATUS_IGNORE);
MPI_Sendrecv(&(local[halosize][0]), halosize*localcols, MPI_CHAR, down, downtag,
&(local[localrows-halosize][0]), halosize*localcols, MPI_CHAR, up, downtag,
cartcomm, MPI_STATUS_IGNORE);
/* now send overlap data to neighbors left and right */
MPI_Datatype column;
sizes[0] = localrows; sizes[1] = localcols;
subsizes[0] = localrows; subsizes[1] = halosize;
starts[0] = 0; starts[1] = 0;
MPI_Type_create_subarray(2, sizes, subsizes, starts, MPI_ORDER_C, MPI_CHAR, &column);
MPI_Type_commit(&column);
MPI_Sendrecv(&(local[0][localcols-2*halosize]), 1, column, right, righttag,
&(local[0][0]), 1, column, left, righttag,
cartcomm, MPI_STATUS_IGNORE);
MPI_Sendrecv(&(local[0][halosize]), 1, column, left, lefttag,
&(local[0][localcols-halosize]), 1, column, right, lefttag,
cartcomm, MPI_STATUS_IGNORE);
eachprintarr((const char **const)local, localrows, localcols, rank, size);
}
int main(int argc, char **argv) {
int rank, size;
int dims[2] = {0,0};
int coords[2];
int periods[2] = {0, 0};
const int reorder = 1;
MPI_Comm cartcomm;
MPI_Init(&argc, &argv);
MPI_Comm_size(MPI_COMM_WORLD, &size);
MPI_Dims_create(size, 2, dims);
MPI_Cart_create(MPI_COMM_WORLD, 2, dims, periods, reorder, &cartcomm);
MPI_Comm_rank(cartcomm, &rank);
MPI_Cart_coords(cartcomm, rank, 2, coords);
int globalcols = datasize*dims[0]+2*halosize;
int globalrows = datasize*dims[0]+2*halosize;
int localcols = datasize+2*halosize;
int localrows = datasize+2*halosize;
char **global = NULL;
if (rank == 0) {
global = alloc2d(globalrows, globalcols);
for (int i=0; i<globalrows; i++)
for (int j=0; j<globalcols; j++)
global[i][j] = '.';
char val = 'a';
for (int i=halosize; i<globalrows-halosize; i++)
for (int j=halosize; j<globalcols-halosize; j++) {
global[i][j] = val;
val++;
if (val > 'z') val = 'a';
}
printf("Global array: ---\n");
printarr((const char ** const)global, globalrows, globalcols, "");
}
if (argv[1] && !strcmp(argv[1],"sendrecv")) {
if (rank == 0)
printf("---\nDistributing with Send/Recv:---\n");
distributeBySend((const char **const) global, globalrows, globalcols,
localrows, localcols,
rank, size,
cartcomm, dims, coords);
} else {
if (rank == 0)
printf("---\nDistributing with Scatter/exchange:---\n");
scatterAndExchange((const char **const)global, globalrows, globalcols,
localrows, localcols,
rank, size,
cartcomm, dims, coords);
}
MPI_Finalize();
return 0;
}
char **alloc2d(const int n, const int m) {
char *data = malloc( n*m * sizeof(int) );
char **ptrs = malloc( n*sizeof(int *) );
for (int i=0; i<n; i++)
ptrs[i] = &(data[i*m]);
return ptrs;
}
void free2d(char **p) {
free(p[0]);
free(p);
}
void printarr(const char **const arr, const int n, const int m, const char *pref) {
for (int i=0; i<n; i++) {
printf("%s", pref);
for (int j=0; j<m; j++) printf("%c", arr[i][j]);
printf("\n");
}
}
void eachprintarr(const char **const arr, const int n, const int m, const int myrank, const int size) {
char line[12];
sprintf(line, "Rank %3d: ", myrank);
for (int rank=0; rank<size; rank++) {
if (rank == myrank) {
printf("---\n");
printarr(arr, n, m, line);
}
MPI_Barrier(MPI_COMM_WORLD);
}
}
运行给予
$ mpirun -np 4 ./scatter sendrecv
Global array: ---
......
.abcd.
.efgh.
.ijkl.
.mnop.
......
---
Distributing with Send/Recv:---
---
Rank 0: ....
Rank 0: .abc
Rank 0: .efg
Rank 0: .ijk
---
Rank 1: ....
Rank 1: bcd.
Rank 1: fgh.
Rank 1: jkl.
---
Rank 2: .efg
Rank 2: .ijk
Rank 2: .mno
Rank 2: ....
---
Rank 3: fgh.
Rank 3: jkl.
Rank 3: nop.
Rank 3: ....
$ mpirun -np 4 ./scatter scatter
Global array: ---
......
.abcd.
.efgh.
.ijkl.
.mnop.
......
---
Distributing with Scatter/exchange:---
---
Rank 0: ....
Rank 0: .abc
Rank 0: .efg
Rank 0: .ijk
---
Rank 1: ....
Rank 1: bcd.
Rank 1: fgh.
Rank 1: jkl.
---
Rank 2: .efg
Rank 2: .ijk
Rank 2: .mno
Rank 2: ....
---
Rank 3: fgh.
Rank 3: jkl.
Rank 3: nop.
Rank 3: ....
关于c - 使用 MPI_Scatterv 分散数组的重叠区域,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25813593/
#include using namespace std; class C{ private: int value; public: C(){ value = 0;
这个问题已经有答案了: What is the difference between char a[] = ?string?; and char *p = ?string?;? (8 个回答) 已关闭
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 7 年前。 此帖子已于 8 个月
除了调试之外,是否有任何针对 c、c++ 或 c# 的测试工具,其工作原理类似于将独立函数复制粘贴到某个文本框,然后在其他文本框中输入参数? 最佳答案 也许您会考虑单元测试。我推荐你谷歌测试和谷歌模拟
我想在第二台显示器中移动一个窗口 (HWND)。问题是我尝试了很多方法,例如将分辨率加倍或输入负值,但它永远无法将窗口放在我的第二台显示器上。 关于如何在 C/C++/c# 中执行此操作的任何线索 最
我正在寻找 C/C++/C## 中不同类型 DES 的现有实现。我的运行平台是Windows XP/Vista/7。 我正在尝试编写一个 C# 程序,它将使用 DES 算法进行加密和解密。我需要一些实
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
有没有办法强制将另一个 窗口置于顶部? 不是应用程序的窗口,而是另一个已经在系统上运行的窗口。 (Windows, C/C++/C#) 最佳答案 SetWindowPos(that_window_ha
假设您可以在 C/C++ 或 Csharp 之间做出选择,并且您打算在 Windows 和 Linux 服务器上运行同一服务器的多个实例,那么构建套接字服务器应用程序的最明智选择是什么? 最佳答案 如
你们能告诉我它们之间的区别吗? 顺便问一下,有什么叫C++库或C库的吗? 最佳答案 C++ 标准库 和 C 标准库 是 C++ 和 C 标准定义的库,提供给 C++ 和 C 程序使用。那是那些词的共同
下面的测试代码,我将输出信息放在注释中。我使用的是 gcc 4.8.5 和 Centos 7.2。 #include #include class C { public:
很难说出这里问的是什么。这个问题是含糊的、模糊的、不完整的、过于宽泛的或修辞性的,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开它,visit the help center 。 已关
我的客户将使用名为 annoucement 的结构/类与客户通信。我想我会用 C++ 编写服务器。会有很多不同的类继承annoucement。我的问题是通过网络将这些类发送给客户端 我想也许我应该使用
我在 C# 中有以下函数: public Matrix ConcatDescriptors(IList> descriptors) { int cols = descriptors[0].Co
我有一个项目要编写一个函数来对某些数据执行某些操作。我可以用 C/C++ 编写代码,但我不想与雇主共享该函数的代码。相反,我只想让他有权在他自己的代码中调用该函数。是否可以?我想到了这两种方法 - 在
我使用的是编写糟糕的第 3 方 (C/C++) Api。我从托管代码(C++/CLI)中使用它。有时会出现“访问冲突错误”。这使整个应用程序崩溃。我知道我无法处理这些错误[如果指针访问非法内存位置等,
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
已关闭。此问题不符合Stack Overflow guidelines 。目前不接受答案。 要求我们推荐或查找工具、库或最喜欢的场外资源的问题对于 Stack Overflow 来说是偏离主题的,因为
我有一些 C 代码,将使用 P/Invoke 从 C# 调用。我正在尝试为这个 C 函数定义一个 C# 等效项。 SomeData* DoSomething(); struct SomeData {
这个问题已经有答案了: Why are these constructs using pre and post-increment undefined behavior? (14 个回答) 已关闭 6
我是一名优秀的程序员,十分优秀!