- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我想知道有多少 GPU 计算可以帮助我加快模拟速度。
我的代码的关键部分是矩阵乘法。基本上,代码类似于以下 python 代码,其中包含 1000 阶矩阵和长 for 循环。
import numpy as np
m_size = 1000
sim_length = 50
a = np.random.rand(m_size, m_size)
b = np.random.rand(m_size, m_size)
for j in range(sim_length):
result = np.dot(a,b)
注意:我的矩阵很密集,大部分是随机的,for 循环是用 cython 编译的。
我天真的猜测有两个因素:
我认为这种观点太天真了,所以我错过了什么?
最佳答案
如果您使用numpy
,您可能正在使用 BLAS 库之一作为计算后端,例如 ATLAS、OpenBLAS、MKL 等。当您使用最快的 MKL 时,您可以找到最近的性能基准测试,在最近的 Nvidia GPU K40m 和 Intel Xeon 12 核 E5-2697 v2 @ 2.70GHz 之间
https://developer.nvidia.com/cublas
其中 K40m 比 12 线程 E5-2697 快 6 倍。考虑到 MKL 在多核 CPU 上的扩展性很好。 K40m 比 1 线程 E5-2697 快 72 倍。另请注意,1000-dim 几乎是充分利用 GPU 和 CPU 的下限。较小的矩阵大小通常会导致 GPU 性能下降更多。
如果您为 numpy
使用较慢的 BLAS 后端,请使用 GNU 许可的 ATLAS。然后,您可以在此处找到 MKL 和 ATLAS 之间的比较
https://software.intel.com/en-us/intel-mkl/benchmarks#DGEMM-ATLAS
其中 MKL 比 ATLAS 快 2~4 倍。
对于 Nvidia GPU,唯一广泛使用的后端是 CUDA 的 cuBLAS,因此性能不会像 ATLAS vs. MKL 那样有太大变化。
正如@janbrohl 所说,主机 RAM 和 GPU 设备内存之间的数据传输是影响整体性能的重要因素。这是数据传输速度的基准。
CUDA - how much slower is transferring over PCI-E?
给定矩阵大小,您实际上可以分别计算出计算和数据传输的绝对时间。这些可以帮助您更好地评估性能。
为了最大限度地提高 GPU 的性能,您可能需要重新设计程序以最大限度地减少数据传输,方法是将所有计算操作移至 GPU,而不仅仅是矩阵乘法。
关于python - 加速 GPU 与 CPU 矩阵运算,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38703810/
假设我有两个矩阵,每个矩阵有两列和不同的行数。我想检查并查看一个矩阵的哪些对在另一个矩阵中。如果这些是一维的,我通常只会做 a %in% x得到我的结果。 match似乎只适用于向量。 > a
关闭。这个问题是opinion-based .它目前不接受答案。 想要改进这个问题? 更新问题,以便 editing this post 可以用事实和引用来回答它. 关闭 9 个月前。 Improv
我只处理过 DirectX 矩阵 我读过一些文章,说不能将 DirectX 矩阵数学库用于 openGL 矩阵。 但我也读过,如果你的数学是一致的,你可以获得类似的结果。那只会让我更加困惑。 任何人都
我编写了一个C++代码来解决线性系统A.x = b,其中A是一个对称矩阵,方法是首先使用LAPACK(E)对角矩阵A = V.D.V^T(因为以后需要特征值),然后求解x = A^-1.b = V^T
我遇到了问题。我想创建二维数组 rows=3 cols=2我的代码如下 int **ptr; int row=3; int col=2; ptr=new int *[col]; for (int i=
我有一个 3d mxnxt 矩阵,我希望能够提取 t 2d nxm 矩阵。在我的例子中,我有一个 1024x1024x10 矩阵,我想要 10 张图像显示给我。 这不是 reshape ,我每次只需要
我在 MATLAB 中有一个 3d 矩阵 (n-by-m-by-t) 表示一段时间内网格中的 n-by-m 测量值.我想要一个二维矩阵,其中空间信息消失了,只剩下 n*m 随着时间 t 的测量值(即:
作为一个简化的示例,我有一个 3D numpy 矩阵,如下所示: a = np.array([[[1,2], [4,np.nan], [7,
作为一个简化的示例,我有一个 3D numpy 矩阵,如下所示: a = np.array([[[1,2], [4,np.nan], [7,
使用 eigen2 , 并给定一个矩阵 A a_0_0, a_0_1, a_0_2, ... a_1_0, a_1_0, a_1_2, ... ... 和一个矩阵B: b_0_0, b_0_1, b_
我想知道如何获得下面的布局。 在中型和大型设备上,我希望有 2 行和 2 列的布局(2 x 2 矩阵)。 在小型(和超小型)设备上或调整为小型设备时,我想要一个 4 行和 1 列的矩阵。 我将通过 a
有什么方法可以向量化以下内容: for i = 1:6 te = k(:,:,:,i).*(c(i)); end 我正在尝试将 4D 矩阵 k 乘以向量 c,方法是将其
如何从填充有 1 和 0 的矩阵中抽取 n 个随机点的样本? a=rep(0:1,5) b=rep(0,10) c=rep(1,10) dataset=matrix(cbind(a,b,c),nrow
我正在尝试创建一个包含 X 个 X 的矩阵。以下代码生成从左上角到右下角的 X 对 Angular 线,而不是从右上角到左下角的 X 对 Angular 线。我不确定从哪里开始。是否应该使用新变量创建
我想在 python 中创建一个每行三列的矩阵,并能够通过任何一行对它们进行索引。矩阵中的每个值都是唯一的。 据我所知,我可以设置如下矩阵: matrix = [["username", "name"
我有点迷茫 我创建了一个名为 person 的类,它具有 age 和 name 属性(以及 get set 方法)。然后在另一个类中,我想创建一个 persons 数组,其中每个人都有不同的年龄和姓名
我有 n 个类,它们要么堆叠,要么不堆叠。所有这些类都扩展了同一个类 (CellObject)。我知道更多类将添加到此列表中,我想创建一种易于在一个地方操纵“可堆叠性”的方法。 我正在考虑创建一个矩阵
我有一个包含 x 个字符串名称及其关联 ID 的文件。本质上是两列数据。 我想要的是一个格式为 x x x 的相关样式表(将相关数据同时作为 x 轴和 y 轴),但我想要 fuzzywuzzy 库的函
机器学习与传统编程的一个重要区别在于机器学习比传统编程涉及了更多的数学知识。不过,随着机器学习的飞速发展,各种框架应运而生,在数据分析等应用中使用机器学习时,使用现成的库和框架成为常态,似乎越来越不需
当我在 julia 中输入这个错误跳转但我不知道为什么,它应该工作。/ julia> A = [1 2 3 4; 5 6 7 8; 1 2 3 4; 5 6 7 8] 4×4 Array{Int64,
我是一名优秀的程序员,十分优秀!