- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在为 python 创建一个 GPU 加速卷积例程,它后端为 C,它利用 Cuda 来访问 GPU。为此,请使用以下 C 代码:
#include <cuda.h>
#include <cuda_runtime_api.h>
/*
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
GPU device functions for GPU modules
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
*/
__global__ void d_VectorConvolve(float *a, float *b, float *c, size_t n_a, size_t n_b, size_t half)
{
size_t idx = blockIdx.x * blockDim.x + threadIdx.x;
float val = 0.0;
if (idx < n_a)
{
for (int j = 0; j < n_b; j++)
{
int check = idx - half + j; // this is needed to ensure we dont attempt to index
// a value outsize the size of a.
if (check > 0 && check < n_a)
{
val = val + a[idx - half + j]*b[j];
}
}
c[idx] = val;
}
}
extern "C" {
void VectorConvolve(float *a, float *b, float *c, size_t n_a, size_t n_b, size_t half)
{
float *d_a, *d_b, *d_c;
cudaMalloc( &d_a, n_a*sizeof(float));
cudaMalloc( &d_b, n_b*sizeof(float));
cudaMalloc( &d_c, n_a*sizeof(float));
cudaMemcpy( d_a, a, n_a*sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy( d_b, b, n_b*sizeof(float), cudaMemcpyHostToDevice);
cudaMemcpy( d_c, c, n_a*sizeof(float), cudaMemcpyHostToDevice);
d_VectorConvolve <<< ceil(n_a / 256.0), 256 >>> (d_a, d_b, d_c, n_a, n_b, half);
cudaMemcpy( c, d_c, n_a*sizeof(float), cudaMemcpyDeviceToHost);
cudaFree(d_a);
cudaFree(d_b);
cudaFree(d_c);
}
}
此文件保存为 vector_functions.cu,我使用 nvcc 对其进行编译以生成 .so :
nvcc -Xcompiler -fPIC -shared -o vector_functions.so vector_functions.cu
这一切都工作正常,并且代码在 C 中工作。我创建了一个 init.py 文件,该文件使用创建的 .so 文件:
def get_vector_functions():
dll = ctypes.CDLL(current_dir + '/vector_functions.so', mode=ctypes.RTLD_GLOBAL)
# convolve funtion
vector_convolve = dll.VectorConvolve
vector_convolve.argtypes = [POINTER(c_float), POINTER(c_float), POINTER(c_float), c_size_t, c_size_t, c_size_t]
return vector_convolve
# create __cuda_sum function with get_cuda_sum()
__vector_convolve = get_vector_functions()
def cuda_convolve(a,b):
a = a.astype('float32')
b = b.astype('float32')
a_shape = a.shape[0]
b_shape = b.shape[0]
half = int(b_shape/2.)
a_p = a.ctypes.data_as(POINTER(c_float))
b_p = b.ctypes.data_as(POINTER(c_float))
c_p = np.zeros(a_shape).ctypes.data_as(POINTER(c_float))
__vector_convolve(a_p, b_p, c_p, a_shape, b_shape, half)
c = make_nd_array(c_p, [a_shape], dtype=np.float32, order='C', own_data=True)
return c
现在效果很好,我可以加载我的模块来快速进行大型卷积。问题是,有时我会遇到段错误,但我不知道为什么。一旦我得到这个,我就不能再次使用这个模块,直到我重新启动计算机。
我认为我没有正确管理我的内存?但奇怪的是,有时它运行得很好,然后突然就失败了。我还觉得链接 .so 文件可能是一个坏主意,并且可能与此有关,但这是将 python 链接到 C 的快速解决方案。
我对Python和C语言比较有经验。我这里的大部分代码都是改编自在线教程和其他人的代码。我欢迎所有关于为什么会出现这种情况以及可以采取哪些措施来避免此问题的建议。
<小时/>如果我使用 python 解释器运行一些预热命令,问题似乎就会消失:
cuda_convolve(np.ones(2**5), np.ones(100))
cuda_convolve(np.ones(2**10), np.ones(100))
cuda_convolve(np.ones(2**15), np.ones(100))
cuda_convolve(np.ones(2**18), np.ones(100))
在此之后,我可以毫无问题地将它用于大型数组。但是,如果我在不进行“预热”的情况下加载模块,则会出现段错误。
最佳答案
这实际上并不是段错误问题的解决方案,而是找到段错误背后的真正罪魁祸首的一种方法。
您的代码中没有错误检查。您希望如何找到错误?
使用以下函数来包装所有 CUDA 调用:
#define gpuErrchk(ans) { gpuAssert((ans), __FILE__, __LINE__); }
inline void gpuAssert(cudaError_t code, const char *file, int line, bool abort=true)
{
if (code != cudaSuccess)
{
fprintf(stderr,"GPUassert: %s %s %d\n", cudaGetErrorString(code), file, line);
if (abort) exit(code);
}
}
现在修改您的代码:
extern "C" {
void VectorConvolve(float *a, float *b, float *c, size_t n_a, size_t n_b, size_t half)
{
float *d_a, *d_b, *d_c;
gpuErrchk(cudaMalloc( &d_a, n_a*sizeof(float)));
gpuErrchk(cudaMalloc( &d_b, n_b*sizeof(float)));
gpuErrchk(cudaMalloc( &d_c, n_a*sizeof(float)));
gpuErrchk(cudaMemcpy( d_a, a, n_a*sizeof(float), cudaMemcpyHostToDevice));
gpuErrchk(cudaMemcpy( d_b, b, n_b*sizeof(float), cudaMemcpyHostToDevice));
gpuErrchk(cudaMemcpy( d_c, c, n_a*sizeof(float), cudaMemcpyHostToDevice));
d_VectorConvolve <<< ceil(n_a / 256.0), 256 >>> (d_a, d_b, d_c, n_a, n_b, half);
// check if cuda kernel executed correctly
gpuErrchk(cudaPeekAtLastError())
// make sure kernel execution has ended
gpuErrchk(cudaDeviceSynchronize())
gpuErrchk(cudaMemcpy( c, d_c, n_a*sizeof(float), cudaMemcpyDeviceToHost));
gpuErrchk(cudaFree(d_a));
gpuErrchk(cudaFree(d_b));
gpuErrchk(cudaFree(d_c));
}
}
关于python - 为什么我的代码(与 CUDA 链接)偶尔会导致 Python 中的段错误?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47005775/
我正在尝试使用 Spark 从 Cassandra 读取数据。 DataFrame rdf = sqlContext.read().option("keyspace", "readypulse
这是代码: void i_log_ (int error, const char * file, int line, const char * fmt, ...) { /* Get erro
我必须调试一个严重依赖 Gtk 的程序。问题是由于某些原因,在使用 GtkWindow 对象时开始出现许多运行时警告。问题是,即使 Gtk 提示严重错误,它也不会因这些错误而中止。我没有代码库的更改历
我正在尝试从已有效编译和链接的程序中检索二进制文件。我已经通过 GL_PROGRAM_BINARY_LENGTH 收到了它的长度。该文档说有两个实例可能会发生 GL_INVALID_OPERATION
我有一个托管在 Azure 环境中的服务。我正在使用控制台应用程序使用该服务。这样做时,我得到了异常: "The requested service, 'http://xxxx-d.yyyy.be/S
我有以下代码,它被 SEGV 信号杀死。使用调试器表明它被 main() 中的第一个 sem_init() 杀死。如果我注释掉第一个 sem_init() ,第二个会导致同样的问题。我试图弄清楚是什么
目前我正在编写一个应用程序(目标 iOS 6,启用 ARC),它使用 JSON 进行数据传输,使用核心数据进行持久存储。 JSON 数据由 PHP 脚本通过 json_encode 从 MySQL 数
我对 Xamarin.Forms 还是很陌生。我在出现的主页上有一个非常简单的功能 async public Task BaseAppearing() { if (UserID
这是我的代码的简化版本。 public class MainActivity extends ActionBarActivity { private ArrayList entry = new Arr
我想弄明白为什么我的两个 Java 库很难很好地协同工作。这是场景: 库 1 有一个类 A,其构造函数如下: public A(Object obj) { /* boilerplate */ } 在以
如果网站不需要身份验证,我的代码可以正常工作,如果需要,则在打印“已创建凭据”后会立即出现 EXC_BAD_ACCESS 错误。我不会发布任何内容,并且此代码是直接从文档中复制的 - 知道出了什么问题
我在使用 NSArray 填充 UITableView 时遇到问题。我确信我正在做一些愚蠢的事情,但我无法弄清楚。当我尝试进行简单的计数时,我得到了 EXC_BAD_ACCESS,我知道这是因为我试图
我在 UITableViewCell 上有一个 UITextField,在另一个单元格上有一个按钮。 我单击 UITextField(出现键盘)。 UITextField 调用了以下方法: - (BO
我有一个应用程序出现间歇性崩溃。崩溃日志显示了一个堆栈跟踪,这对我来说很难破译,因此希望其他人看到了这一点并能为我指出正确的方向。 基本上,应用程序在启动时执行反向地理编码请求,以在标签中显示用户的位
我开发了一个 CGImage,当程序使用以下命令将其显示在屏幕上时它工作正常: [output_view.layer performSelectorOnMainThread:@selector(set
我正在使用新的 EncryptedSharedPreferences以谷歌推荐的方式上课: private fun securePrefs(context: Context): SharedPrefe
我有一个中继器,里面有一些控件,其中一个是文本框。我正在尝试使用 jquery 获取文本框,我的代码如下所示: $("#").click(function (event) {}); 但我总是得到 nu
在以下场景中观察到 TTS 初始化错误,太随机了。 已安装 TTS 引擎,存在语音集,并且可以从辅助功能选项中播放示例 tts。 TTS 初始化在之前初始化和播放的同一设备上随机失败。 在不同的设备(
maven pom.xml org.openjdk.jol jol-core 0.10 Java 类: public class MyObjectData { pr
在不担心冲突的情况下,可以使用 MD5 作为哈希值,字符串长度最多为多少? 这可能是通过为特定字符集中的每个可能的字符串生成 MD5 哈希来计算的,长度不断增加,直到哈希第二次出现(冲突)。没有冲突的
我是一名优秀的程序员,十分优秀!