- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
在我的应用程序中,我显示了所有可用的 OpenCL 设备,以便用户可以选择他想要执行计算的设备。我在笔记本电脑上得到的结果让我感到困惑。
以下是产生这些结果的代码的摘录:
//CL_DEVICE_TYPE
{
cl_device_type devtype;
QString temp = "Unknown";
err = clGetDeviceInfo(devices[i][j], CL_DEVICE_TYPE, sizeof(devtype), &devtype, NULL);
if(err == CL_SUCCESS)
{
if(devtype == CL_DEVICE_TYPE_CPU)
temp = "CPU";
else if(devtype == CL_DEVICE_TYPE_GPU)
temp = "GPU";
else if(devtype == CL_DEVICE_TYPE_ACCELERATOR)
temp = "Accelerator";
else
temp = "Unkown";
}
ilist->append(temp);
}
//CL_DEVICE_MAX_CLOCK_FREQUENCY
{
cl_uint devfreq;
err = clGetDeviceInfo(devices[i][j], CL_DEVICE_MAX_CLOCK_FREQUENCY, sizeof(devfreq), &devfreq, NULL);
if(err == CL_SUCCESS)
ilist->append(QString::number((unsigned int)devfreq));
else
ilist->append("Unknown");
}
//CL_DEVICE_GLOBAL_MEM_SIZE
{
cl_ulong devmem;
err = clGetDeviceInfo(devices[i][j], CL_DEVICE_GLOBAL_MEM_SIZE, sizeof(devmem), &devmem, NULL);
devmem /= 1000000;
if(err == CL_SUCCESS)
ilist->append(QString::number((unsigned int)(devmem)));
else
ilist->append("Unkown");
}
//CL_DEVICE_MAX_COMPUTE_UNITS * CL_DEVICE_MAX_WORK_GROUP_SIZE
{
cl_uint devcores;
err = clGetDeviceInfo(devices[i][j], CL_DEVICE_MAX_COMPUTE_UNITS, sizeof(devcores), &devcores, NULL);
if(err == CL_SUCCESS)
{
size_t devcores2;
err = clGetDeviceInfo(devices[i][j], CL_DEVICE_MAX_WORK_GROUP_SIZE, sizeof(devcores2), &devcores2, NULL);
if(err == CL_SUCCESS)
ilist->append(QString::number(((unsigned int)(devcores)) * ((unsigned int)(devcores2))));
else
ilist->append("Unkown");
}
else
ilist->append("Unknown");
}
我不明白的是为 CPU 显示的内存和并行计算的数量。知道为什么我会得到这些结果吗?
最佳答案
因为CL_DEVICE_MAX_WORK_GROUP_SIZE并不是并行计算能力的指标。
关于c++ - Intel i5 处理器优于 ATI HD Radeon GPU?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22481502/
我正在尝试设置一个系统来在运行 Arch Linux 的笔记本电脑上学习 opencl。笔记本电脑有混合显卡(intel HD4000 和 ati 8790)。我安装了 AMD-APP-SDK 并且能
如何使用我的 ATi 5470M 在 MATLAB 2010a 上进行计算 另外,我可以让我的 CPU 和 GPU 一起并行做这件事吗? 我是 GPU 计算的新手。 最佳答案 您可以先查看 OpenC
当我使用 ATIS(航空旅行信息系统)数据集(http://lisaweb.iro.umontreal.ca/transfert/lisa/users/mesnilgr/atis/)在循环神经网络中进
我正在为配备 AMD Radeon HD 6970M 2048 MB 显卡的 iMac 编写 GLSL 顶点着色器: GL_MAX_VERTEX_ATTRIBS: 16 GL_MAX_VERTEX_U
我最近将一个 OpenCL 应用程序从 NVIDIA GPU 转移到在 Ubuntu 12.04 上运行的 Radeon HD 6320 Fusion,它的运行速度出乎意料地慢了很多。 我的程序在设置
我有一台配备 ATI Mobility Radeon HD 5650 的笔记本电脑,想使用该卡进行计算 =) 安装 AMD APP SDK v.2(安装正常)后,我尝试运行 AMD 提供的代码示例。但
我使用这个 fragent 着色器(灵感来自前段时间在 NVIDIA 网站上找到的一些教程)。它主要计算 2D 纹理的双线性插值。 uniform sampler2D myTexture; unifo
我什至不在乎它们是否是真正的“调试”版本,我真正想要的是符号文件,以便在我闯入调试器时不会使我的调用堆栈无效。 最佳答案 AMD 现在为其驱动程序发布符号: http://gpuopen.com/am
我正在使用以下测试设置(最新含义截至 2012 年 7 月 14 日): 配备 ATI FirePro V9800 (Eyefinity) 的 Core i7 Windows 7 Pro 64 位(最
我尝试了很多不同的策略来获得可用的噪声功能,但都没有奏效。那么,如何在 GLSL 中的 ATI 显卡上实现 perlin 噪声呢? 以下是我尝试过的方法: 我尝试将排列和渐变数据放入 GL_RGBA
当我尝试使用 CopyResource 命令将渲染的纹理复制到背景纹理中供以后使用时,我得到了奇怪的结果。这是什么结果: 我没有收到任何 dx11 警告或错误。这也只会在使用 ATI Radeon 卡
我有一个使用 JOGL 用 Java 编写的应用程序,它在 nvidia 卡上运行良好,但当我在 ati 卡上运行它时,它工作得很好,直到我在 1 个或多个面上添加纹理。最终,java vm 严重
我和一个 friend 正在开发一个编辑器(类似 CAD)以用于我们 future 的游戏。我们正在使用 Qt 框架和 OpenGL。我们遇到的问题是,在他的带有集成 nVidia 卡的笔记本电脑上,
我想知道我的应用程序中的物理视频内存大小。我可以使用“nvidia-settings -q -t VideoRam”获得与 Nvidia 卡相同的信息。 我可以使用 amdcccle 查找此信息,但它
我可以通过安装 ATI Stream SDK 在 Nvidia GPU 上编写我的 OpenCL 应用程序吗(因为它也可以让我加速我的 CPU,而 Nvidia 编程 SDK 则不能)? 最佳答案 您
看完本教程https://www.tensorflow.org/guide/using_gpu我在这个简单的代码上检查了 GPU session import numpy as np import m
为了使这个问题成为一个可以回答的问题,而不仅仅是一个民意调查,我会这样问: 是否有任何第三方报告将 ATI 的 Stream 框架与 NVidia 的 CUDA 框架进行比较(即,不是来自 ATI 或
我有这段代码,我正在对我正在使用的引擎进行测试。 在我的 NVIDIA NVS 4200M 上,它按预期显示 GL_TRIANGLE_STRIP。在我的 ATI Radeon 5800 上它似乎画了一
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题吗? Update the question所以它是on-topic用于堆栈溢出。 关闭 10 年前。 Improve thi
我有一个非常奇怪的问题我不能pin down几天了。我正在制作一个简单的逐顶点照明,它在 Nvidia 上工作正常,但不会渲染任何带有灯光阴影的内容 AMD/ATI .我找到了与属性有关的问题 - 特
我是一名优秀的程序员,十分优秀!