- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
如果使用 Quadro GPU 与 GeForce GPU,TensorFlow 性能是否有明显差异?
例如它是否使用 double 运算或其他会导致 GeForce 卡性能下降的因素?
我即将购买一个用于 TensorFlow 的 GPU,并且想知道 GeForce 是否合适。感谢并感谢您的帮助
最佳答案
我认为 GeForce TITAN 非常棒,并且广泛应用于机器学习 (ML)。在机器学习中,大多数情况下单精度就足够了。
有关 GTX 系列(当前为 GeForce 10)性能的更多详细信息,请参阅维基百科 here .
网络上的其他来源也支持这一说法。这是报价from doc-ok in 2013 (permalink)。
For comparison, an “entry-level” $700 Quadro 4000 is significantly slower than a $530 high-end GeForce GTX 680, at least according to my measurements using several Vrui applications, and the closest performance-equivalent to a GeForce GTX 680 I could find was a Quadro 6000 for a whopping $3660.
具体到 ML,包括深度学习,有一个 Kaggle forum discussion dedicated to this subject (2014 年 12 月,permalink),其中对 Quadro、GeForce 和 Tesla 系列进行了比较:
Quadro GPUs aren't for scientific computation, Tesla GPUs are. Quadro cards are designed for accelerating CAD, so they won't help you to train neural nets. They can probably be used for that purpose just fine, but it's a waste of money.
Tesla cards are for scientific computation, but they tend to be pretty expensive. The good news is that many of the features offered by Tesla cards over GeForce cards are not necessary to train neural networks.
For example, Tesla cards usually have ECC memory, which is nice to have but not a requirement. They also have much better support for double precision computations, but single precision is plenty for neural network training, and they perform about the same as GeForce cards for that.
One useful feature of Tesla cards is that they tend to have is a lot more RAM than comparable GeForce cards. More RAM is always welcome if you're planning to train bigger models (or use RAM-intensive computations like FFT-based convolutions).
If you're choosing between Quadro and GeForce, definitely pick GeForce. If you're choosing between Tesla and GeForce, pick GeForce, unless you have a lot of money and could really use the extra RAM.
注意:请注意您正在使用的平台以及其中的默认精度。例如,here in the CUDA forums (2016 年 8 月),一位开发人员拥有两台 Titan X(GeForce 系列),并且没有看到任何 R 或 Python 脚本的性能提升。诊断此问题的原因是 R 默认为 double ,并且在新 GPU 上的性能比 CPU(Xeon 处理器)更差。 Tesla GPU 被认为是 double 性能最佳的 GPU。在这种情况下,将所有数字转换为 float32 可以在 TITAN X 上将性能从 12.437 秒(使用 nvBLAS 0.324 秒)和 gmatrix+float32 提高(请参阅第一个基准测试)。引用此论坛讨论:
Double precision performance of Titan X is pretty low.
关于machine-learning - 选择 GeForce 或 Quadro GPU 通过 TensorFlow 进行机器学习,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34715055/
关闭。这个问题是off-topic .它目前不接受答案。 想改善这个问题吗? Update the question所以它是 on-topic对于堆栈溢出。 9年前关闭。 Improve this q
GeForce 6xx 系列 GPU 是否使用 RISC、CISC 或 VLIW 风格的指令? 在一个来源中,在 http://www.motherboardpoint.com/risc-cisc-t
关闭。这个问题不满足Stack Overflow guidelines .它目前不接受答案。 想改善这个问题吗?更新问题,使其成为 on-topic对于堆栈溢出。 5年前关闭。 Improve thi
采用 TCC 模式的 Tesla(Fermi 或 Kepler)与采用 WDDM 的 Geforce(同代)相比? 我编写的程序在内核开销方面存在一些非常严重的问题,因为它必须重复启动内核,开销如此之
如何检查 OpenGL 上下文是否在 Geforce 卡上运行?我需要运行不同的代码,具体取决于它是在 Geforce 卡、Quadro 还是 AMD 卡上运行,并且需要一种检测方法。 最佳答案 我认
我在编写一些 C++ AMP 代码时遇到了问题。我已经包含了一个样本。它在模拟加速器上运行良好,但在我的硬件(Windows 7、NVIDIA GeForce GTX 660、最新驱动程序)上使显示驱
On this page ,它说支持“GeForce” HW accelerated encode and decode are supported on NVIDIA GeForce, Quadro
我在运行 Nvidia 在他们的 GPU 计算 SDK 中提供的示例时遇到问题(有一个已编译示例代码库)。 对于 cuda,我收到消息“未检测到支持 CUDA 的设备”,对于 OpenCL,应该找到支
我在 Windows 7 机器上有 4 个 GTX 570。根据编程指南,点对点内存复制应该在 Geforce 和 Quadro 以及 Tesla 上工作 Memory copies can be p
我正在 build 一个工作站,并想进行一些繁重的 CUDA 编程。我不想全力以赴地获得 Tesla 卡,并且几乎将其缩小到 Quadro 4000 和 GeForce 480,但我并不真正理解其中的
我使用 CheckMultisampleQualityLevels(...) 在我的硬件上建立 MSAA 支持。我按照这个顺序做: D3D11CreateDevice(...) 给我 device d
我在配备 16 GB 内存、1 TB 硬盘和专用 NVIDIA GeForce GTX 1070 的英特尔酷睿 i7-8700 CPU 上运行 Windows 10显卡。 我计划启动 3 个由我的 W
当我尝试使用标志 DXGI_CREATE_FACTORY_DEBUG 调用 D3D12GetDebugInterface 或 CreateDXGIFactory2 时,调用在我的笔记本电脑上失败,但在
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许在 Stack Overflow 上提出有关通用计算硬件和软件的问题。您可以编辑问题,使其成为
我在 Windows 10 中同时安装了 CPU 和 GPU 版本的 tensorflow。 conda list t.*flow # packages in environment at C:\Us
Geforce 9500 GT 可以运行 CUDA Toolkit 5.0 吗? 首页:https://developer.nvidia.com/cuda-gpus Geforce 9500 GT 有
我正在使用 tf-seq2seq 训练 NMT 模型GEFORCE GTX 1080 ti (11GB) 的封装。在训练模型期间,执行 nvidia-smi显示当所有 CPU 内核都忙时,GPU vo
如果使用 Quadro GPU 与 GeForce GPU,TensorFlow 性能是否有明显差异? 例如它是否使用 double 运算或其他会导致 GeForce 卡性能下降的因素? 我即将购买一
我有一台配备 GeForce 9400 显卡的 MacBook Pro。维基百科说这张卡支持OpenGL 3。 但是 OS X 10.6 附带的头文件和库似乎只是 OpenGL 2(我检查了 /usr
使用 OpenGL 3.3 核心配置文件,我正在通过 渲染全屏“四边形”(作为单个超大三角形) gl.DrawArrays(gl.TRIANGLES, 0, 3) 使用以下着色器。 顶点着色器: #v
我是一名优秀的程序员,十分优秀!