gpt4 book ai didi

c - 使用 CUBLAS 批量 QR 分解

转载 作者:行者123 更新时间:2023-11-30 17:12:31 25 4
gpt4 key购买 nike

我一直在尝试与 CUDA 并行地执行许多小矩阵的 QR 分解。因此我使用了cublasDgeqrfBatched在古巴发挥作用。我找不到上述函数的工作示例,并且在调用它的文档中发现了一些含糊之处。事实上,我尝试测试cublasDgeqrfBatched关于 Wikipedia 中 Householder Reflections 部分的示例因为cublasDgeqrfBatched正在使用同样的方法。 2 个输入小矩阵是相同的,如下所示:

A= 12 -51   4
6 167 -68
-4 24 -41

根据文档,Aarray 是一个指向维度为 mxn 的矩阵的指针数组。 TauArray 是指向维度至少为 max (1, min(m, n). 的 vector 的指针数组

cublasDgeqrfBatched对每个 Aarray[i] 执行 QR 分解对于

i =0, ...,batchSize-1

每个矩阵Q[i]存储在每个Aarray[i]的下部

我使用以下代码来调用此函数:

#include "cuda_runtime.h"
#include "device_launch_paraMeters.h"

#include<stdlib.h>
#include<stdio.h>
#include<assert.h>
#include <cublas.h>
#include "cublas_v2.h"
#include "Utilities.cuh"
#include <helper_cuda.h>


/********/
/* MAIN */
/********/
int main(){

//mxn: size of Array[i]

const int m = 3;
const int n = 3;
double h_A[3*3*2]={12, -51, 4, 6, 167, -68, -4, 24, -41, 12, -51, 4, 6, 167, -68, -4, 24, -41};// two 3x3 identical matrices for test


const int batchSize=2;//2 small matrices
const int ltau=3; //ltau = max(1,min(m,n))

// --- CUBLAS initialization
cublasHandle_t cublas_handle;
cublasStatus_t stat;
cublasSafeCall(cublasCreate(&cublas_handle));


// --- CUDA batched QR initialization

double *d_A, *d_TAU;


checkCudaErrors(cudaMalloc((void**)&d_A, m*n*batchSize*sizeof(double)));
checkCudaErrors(cudaMalloc((void**)&d_TAU, ltau*batchSize*sizeof(double)));

checkCudaErrors(cudaMemcpy(d_A,h_A,m*n*batchSize*sizeof(double),cudaMemcpyHostToDevice));

double *d_Aarray[batchSize],*d_TauArray[batchSize];

for (int i = 0; i < batchSize; i++)
{
d_Aarray[i] = d_A+ i*m*n;
d_TauArray[i] = d_TAU + i*ltau;
}

int lda=3;
int info;

stat=cublasDgeqrfBatched(cublas_handle, m, n, d_Aarray, lda, d_TauArray, &info, batchSize);
if (stat != CUBLAS_STATUS_SUCCESS)
printf("\n cublasDgeqrfBatched failed");


double *A0,*A1;
A0=(double*)malloc(m*n*batchSize*sizeof(double));
A1=(double*)malloc(m*n*sizeof(double));

checkCudaErrors(cudaMemcpy(A0,d_Aarray[0],m*n*sizeof(double),cudaMemcpyDeviceToHost));
checkCudaErrors(cudaMemcpy(A1,d_Aarray[1],m*n*sizeof(double),cudaMemcpyDeviceToHost));

}

但是,出现错误 "CUDA error batched_QR/kernel.cu:64 code=4(cudaErrorLaunchFailure) "cudaMemcpy(A0,d_Aarray[0],m*n*sizeof(double),cudaMemcpyDeviceToHost)"

我认为指针的使用有一个错误,但我无法纠正它。请问问题出在哪里?

编辑:

为了使 d_Aarray 和 d_TauArray 设备数组符合 talonmies 的建议,我添加了以下内容:

     double *d_A, *d_TAU;


checkCudaErrors(cudaMalloc((void**)&d_A, m*n*batchSize*sizeof(*d_A)));
checkCudaErrors(cudaMalloc((void**)&d_TAU, ltau*batchSize*sizeof(*d_TAU)));

checkCudaErrors(cudaMemcpy(d_A,h_A,m*n*batchSize*sizeof(double),cudaMemcpyHostToDevice));
checkCudaErrors(cudaMemset(d_TAU, 0, ltau*batchSize* sizeof(*d_TAU)));

但是将结果复制回主机时总是出现相同的错误。

最佳答案

I think there is an error in the use of pointers

你是对的。您传递给 cublasDgeqrfBatched 的设备指针数组是主机数组而不是设备数组:

double *d_Aarray[batchSize],*d_TauArray[batchSize];

for (int i = 0; i < batchSize; i++)
{
d_Aarray[i] = d_A+ i*m*n;
d_TauArray[i] = d_TAU + i*ltau;
}

您必须将 d_Aarrayd_TauArray 复制到设备,并将设备副本的地址传递给 cublasDgeqrfBatched 才能正常工作。像这样的事情:

double *d_Aarray[batchSize],*d_TauArray[batchSize];

for (int i = 0; i < batchSize; i++)
{
d_Aarray[i] = d_A+ i*m*n;
d_TauArray[i] = d_TAU + i*ltau;
}

double ** d_Aarray_, ** d_TauArray_;
cudaMalloc((void **)&d_Aarray_, sizeof(d_Aarray));
cudaMalloc((void **)&d_TauArray_, sizeof(d_TauArray));

cudaMemcpy(d_Aarray_, d_Aarray, sizeof(d_Aarray), cudaMemcpyHostToDevice);
cudaMemcpy(d_TauArray_, d_TauArray, sizeof(d_TauArray), cudaMemcpyHostToDevice);

stat = cublasDgeqrfBatched(cublas_handle, m, n, d_Aarray_, lda, d_TauArray_, &info, batchSize)

[免责声明:用浏览器编写]

此处,d_Aarray_d_TauArray_d_Aarrayd_TauArray设备内存副本。

关于c - 使用 CUBLAS 批量 QR 分解,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31491153/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com