gpt4 book ai didi

c++ - NUMA 感知 Cpp 容器

转载 作者:塔克拉玛干 更新时间:2023-11-03 00:38:19 28 4
gpt4 key购买 nike

有没有方便有效的方式以 NUMA 感知方式使用 cpp 标准容器 API?

我想在 cpp 环境中执行 OpenMP 并行稀疏矩阵 vector 乘法。要分配和初始化与 NUMA 域有关的 vector 和矩阵值,C 代码看起来像这样:

size_t N = 1000000;
double* vecVal = malloc (N*sizeof(double));

#pragma OMP parallel for
for (size_i=0; i<N; ++i)
{
vecVal[i] = 0.;
}
/* do spMV */
delete vecVal;

在 Cpp 中,我想使用 std::vector(固定大小的 std::array 也可以)。std::vector::reserve() 能解决问题吗?这样做是否合法:

std::vector<double> vec;
vec.reserve(N);
double *vecVal = vec.data();

#pragma OMP parallel for
for (size_i=0; i<N; ++i)
{
vecVal[i] = 0.;
}
/* do spMV */

之后如何为 std::vector 设置正确的大小?

有谁知道更优雅的方式吗?

最佳答案

你必须在这里使用一个特殊的 numa 感知分配器。我们在这里为 HPX 实现了类似的东西:https://github.com/STEllAR-GROUP/hpx/blob/master/hpx/parallel/util/numa_allocator.hpp

基本思想是首先接触分配器的 allocate 函数。用你的 #omp parallel for schedule(static) 循环替换 HPX executor 的东西,你应该没问题。

关于c++ - NUMA 感知 Cpp 容器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37006713/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com