- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在网上找到了KMLib,我发现它非常有趣。但是,当运行示例应用程序时,会出现错误:“GASS.CUDA.CUDAException”“Error Invalid Source”。
异常发生在方法中:
protected void InitCudaModule ()
{
deviceNr int = 0;
cuda = new CUDA (deviceNr, true);
cuCtx = cuda.CreateContext (deviceNr, CUCtxFlags.MapHost);
/ / cuda.SetCurrentContext (cuCtx);
/ / var ctx = cuda.PopCurrentContext ();
/ / var CTX2 cuda.PopCurrentContext = ();
/ / var ctx3 cuda.PopCurrentContext = ();
modluePath String = Path.Combine (Environment.CurrentDirectory, cudaModuleName);
if (! File.Exists (modluePath))
throw new ArgumentException ("Failed to access cuda module" + modluePath);
cuModule = cuda.LoadModule (modluePath); / / ERROR!
cuFunc = cuda.GetModuleFunction (cudaProductKernelName);
}
我使用的是 GTX770、Visual Studio 2010 Ultimate、Cuda SDK 5.5 和 Windows 7 64 位。
什么可能导致错误?
最佳答案
我必须经历一些与您经历过的相同问题,但我在我的 GTX 650 + CUDA 6.5 设置上得到了解决。
我将描述我必须对 KMLIB 的构建/依赖项进行的更改:
您遇到的具体 GASS.CUDA.CUDAException 实际上记录在 KMLib's web-page 上。 ,尽管有些晦涩:
-arch=sm_21 or -arch=sm_30 – indicates compute capability, former if for Fermi
cards(e.g Geforce 470), latter is for Kepler cards (e.g. GeForce 690), it
is very important to set this switch depending on yours card compute capability
因此,您遇到的问题与 GFX 卡(Fermi/Kepler/Maxwell)的架构与构建后步骤中的 nvcc 命令行不相符有关。我不知道作者指定的 sm_30 对于 770 卡是否正确,但我最终使用了以下命令行,更改了计算模型、着色器模型和 Visual Studio 路径(自 CUDA 6.5 使用以来) VS 2013,我也是):
nvcc -I./ KernelsEllpackCol2.cu KernelsCSR.cu KernelsEllpack.cu KernelsSlicedEllpack.cu gpuFanSmoSolver.cu gpuFOSmoSolver.cu -ccbin "%VS120COMNTOOLS%../../VC/bin" -m64 -cubin -gencode=arch=compute_30,code=sm_30 -Xptxas="-v"
您将需要更改端口构建以反射(reflect)您的构建系统。
关于machine-learning - KMLib 在 GTX 770 GPU 中崩溃,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24833202/
Mac Big Sur C++ OpenGL 尝试从教程中学习四元数。gtx header 位于 usr/local/include/glm 下。任何人都可以找出我的标题包含或标题搜索路径有什么问题吗
我预计 GTX 680(最新版本的 GPU 之一)能够并发数据传输(双向并发数据传输)。但是当我运行cuda SDK“Device Query”时,“Concurrent copy and execu
我正在尝试实现简单的动态并行编程示例,例如.. __global__ ChildKernel(void* data){ //Operate on data } __global__ Paren
我在问以下问题,因为我很困惑...... 在各种网站和论文中,我发现有声明说 Kepler 架构增加了每个线程的寄存器数量,但在我的 GTX680 上,这似乎不是真的,因为 RegsPerBlock
当我尝试重叠数据传输和内核执行时,无论我使用什么流,卡似乎都按顺序执行所有内存传输。 所以,如果我发出以下命令: 流 1:MemcpyA_HtoD_1;内核_1; MemcpyA_DtoH_1 流 2
我有 GTX Titan Z 显卡。它有双 GPU,总内存为 12 GB(6GB + 6GB)。当我使用 Cuda Sample (V6.5) 文件夹中的 DeviceQuery 应用程序查看规范时,
我正在 OpenGL 中实现深度预传递。在 Intel HD Graphics 5500 上,此代码工作正常,但在 Nvidia GeForce GTX 980 上却没有(下图显示了产生的 z-fig
我有一个 Ubuntu 14.04 LTS 64 位,带有 Nvidia 显卡 - GTX 1070(第 10 代)。我正在尝试构建 TensorFlow。 我尝试使用 CUDA 7.5 和 CuDN
调用时 cudaError_t cuda_error; int device; cuda_error = cudaGetDevice(&device); assert(cudaSuccess == c
我在尝试追踪内存使用情况时遇到了 Geforce GTX 690 问题。一个简单的测试程序: BOOST_AUTO_TEST_CASE(cudaMemoryTest) { size_t mem_tot
我在编写一些 C++ AMP 代码时遇到了问题。我已经包含了一个样本。它在模拟加速器上运行良好,但在我的硬件(Windows 7、NVIDIA GeForce GTX 660、最新驱动程序)上使显示驱
我知道网格通过存储来工作,在我的实例中是 ListStore。如果我更改存储以重新加载/刷新数据,有没有办法可以调用网格? 最佳答案 试试这个: grid.getView().refresh(fals
我正在 GTX 980 ti 卡上尝试动态并行。所有运行代码的尝试都会返回“未知错误”。下面显示了带有编译选项的简单代码。 我可以毫无问题地在 depth=0 执行内核。第一次调用child时报错。c
我认为这可能是一个非常愚蠢的问题,但我对 OpenCL 还很陌生,只是让它在配备 GTX 760 GPU 的台式计算机上运行。 现在,当我查询 OpenCL 的 CL_DEVICE_MAX_COMPU
我正在尝试安装支持 CUDA 的 Tensorflow。这是我的规范: NVIDIA GTX 1070 CUDA 7.5 Cudnn v5.0 我已经通过 pip 安装安装了 Tensorflow -
我正在使用 tensorflow 训练 CNN 模型。我的 GPU 利用率仅达到 60% (+- 2-3%),没有大幅下降。 Sun Oct 23 11:34:26 2016 +-----
是否可以在 Windows 7 的 GTX590 上使用 Parallel Nsight 进行本地调试?我知道要进行本地调试,您需要两个 GPU。 590 有两个 GPU,但我无法让它工作。我收到错误
我一直在为我的计算机科学课制作游戏。为简单起见,我一直在制作一组迷你游戏。为了好玩,我尝试制作了经典贪吃蛇游戏的 3d 版本。物理和碰撞检测工作正常,并且在学校计算机(中等质量的 mac)上游戏运行非
我试图用 memcpyasync 重叠内核执行,但它不起作用。我遵循编程指南中的所有建议,使用固定内存、不同的流等。我看到内核执行确实重叠,但它没有与内存传输重叠。我知道我的卡只有一个复制引擎和一个执
我正在使用在 Windows 7 上运行的开源触觉和 3D 图形库 Chai3D。我已经重写了该库以使用 Nvidia nvision 进行立体 3D。我正在使用带有 GLUT 的 OpenGL,并使
我是一名优秀的程序员,十分优秀!