- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我不太明白 OpenCL 中工作组的目的。
我知道它们是一组并行执行的工作项(据说是硬件线程)。
但是,为什么需要更粗的分割?只有线程网格(事实上,只有一个 W-G)不是可以吗?
工作组是否应该准确映射到物理核心?例如,据说 TESLA c1060 卡有 240 个内核。工作组将如何映射到此?
此外,据我所知,由于内存栅栏,工作组内的工作项可以同步。工作组可以同步还是甚至需要?他们是通过共享内存相互交谈还是仅针对工作项目(不确定这一点)?
最佳答案
我认为这里的部分困惑归结为术语。 GPU 人常说的核心,并不是真的,GPU 人常说的线程只是某种意义上的。
磁芯
在 GPU 营销术语中,内核可能指 CPU 内核之类的东西,也可能指 SIMD 单元的单 channel - 实际上,单核 x86 CPU 将是这种更简单类型的四个内核。这就是 GPU 核心数可以如此之高的原因。这不是一个真正的公平比较,你必须除以 16、32 或类似的数字才能获得更直接可比的核心数。
工作项目
OpenCL 中的每个工作项在其控制流和内存模型方面都是一个线程。硬件可以在单个线程上运行多个工作项,您可以通过想象四个 OpenCL 工作项在 SSE 向量的不同 channel 上运行来轻松想象这一点。实现这一点的只是编译器技巧,而在 GPU 上,它往往是编译器技巧和硬件辅助的混合体。 OpenCL 2.0 实际上通过子组公开了这个底层硬件线程概念,因此还有另一个层次结构需要处理。
工作组
每个工作组都包含一组工作项,这些工作项必须能够在存在障碍的情况下取得进展。实际上,这意味着它是一个集合,其所有状态都能够同时存在,这样当遇到同步原语时,它们之间的切换开销很小,并且可以保证切换是可能的。
工作组必须映射到单个计算单元,这实际上意味着整个工作组适合单个实体,CPU 人们将其称为核心 - CUDA 将其称为多处理器(取决于世代),AMD 称为计算单元和其他人有不同的名字。这种执行的局部性导致更有效的同步,但这也意味着工作项集可以访问本地构造的内存单元。它们应该经常通信,否则不会使用屏障,并且为了使这种通信有效,可能会有本地缓存(类似于 CPU L1)或暂存器内存(OpenCL 中的本地内存)。
只要使用屏障,工作组就可以在内部、工作项之间、使用本地内存或使用全局内存进行同步。工作组不能相互同步,并且标准不保证工作组相对于彼此的前进进度,这使得有效地构建可移植的锁定和同步原语变得不可能。
这在很大程度上是由于历史而不是设计。长期以来,GPU 硬件一直被设计为构建矢量线程,并以最佳处理三角形的方式将它们分配给执行单元。 OpenCL 不会将硬件泛化为对其他事物有用,但不会泛化到使实现效率低下的程度。
关于parallel-processing - OpenCL:工作组概念,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26804153/
在 Oracle 中,PARALLEL 被广泛使用。提示 PARALLEL、PARALLEL(8) 和 PARALLEL(a,8) 有什么区别。如何选择最佳的查询提示? SELECT /*+ PARA
好的,我希望以前没有问过这个问题,因为在搜索中很难找到。 我查看了 F95 手册,但仍然觉得这很模糊: For the simple case of: DO i=0,99 END DO 我正
我有一个 C-shell 脚本,其中有一个名为 $hosts_string 的变量,格式为: host1,host2,...,hostN 我还有一个名为 $chrs_string 的变量,其形式为:
是否可以从由gnu parallel产生的脚本的多次运行中调用gnu parallel? 我有一个python脚本,可以运行100个顺序顺序迭代,并且在每次迭代中的某处,并行计算4个值(使用gnu p
我想在几个输入上运行几个长时间运行的进程。例如。: solver_a problem_1 solver_b problem_1 ... solver_b problem_18 solver_c pro
TParallel.&For 和 TParallel.For 之间有区别吗? 两者都可以在 Delphi 10 Seattle 中编译。那么我应该坚持哪一个呢? 最佳答案 TParallel.&For
我第一次使用 julia 进行并行计算.我有点头疼。所以假设我开始 julia如下:julia -p 4 .然后我为所有处理器声明 a 函数,然后将它与 pmap 一起使用还有@parallel fo
关闭。这个问题是off-topic .它目前不接受答案。 想改善这个问题吗? Update the question所以它是 on-topic对于堆栈溢出。 10年前关闭。 Improve this
我有一堆相互排斥的方法,因此可以并行运行。有这样做的好方法吗?到目前为止,我有以下两种实现方式,但我不确定是否应该选择其中一种。 使用 Parallel.For : Parallel.For(0, 2
我对并行运行脚本很感兴趣,并且我已经开始查看 GNU 并行工具,但是我遇到了一些麻烦。我的脚本 doSomething 有 3 个参数,我想在参数的不同值上并行运行脚本。我该怎么做? 我试过:para
我需要在多核(和多线程)机器上运行多个作业。我正在使用 GNU Parallel utility跨核心分配作业以加速任务。要执行的命令在名为“命令”的文件中可用。我使用以下命令运行 GNU Paral
我正在尝试使用如下两个输入运行 Python 脚本。我得到了大约 300 个这两个输入,所以我想知道是否有人可以建议如何并行运行它们。 单次运行看起来像: python stable.py KOG_1
每天我都必须更新一堆存储库,并在其中一些中执行另一个命令(来自 CARTON,Perl 模块依赖管理器)。我总是使用循环来执行此操作,但我想与 并行执行GNU 并行 如果可能,但我不太了解它的tuto
正如标题所说:@parallel 之间究竟有什么区别?和 pmap ?我的意思不是明显的一个是循环的宏,另一个适用于函数,我的意思是它们的实现究竟有什么不同,我应该如何使用这些知识在它们之间进行选择?
我有一些矩阵乘法运算。我想通过多个处理器并行执行这些操作。这可以使用 MPI(消息传递接口(interface))在高性能计算集群上完成。 同样,我可以使用多个辅助角色在云中进行一些并行化吗?有什么办
joblib模块提供了一个简单的帮助程序类,以使用多处理并行编写循环的循环。 这段代码使用列表推导来完成这项工作: import time from math import sqrt from job
我的问题是这样的one .但我想做一些不同的事情... 例如,在我的并行区域内,我想在 4 个线程上运行我的代码。当每个线程进入 for 循环时,我想在 8 个线程上运行我的代码。像 #pramga
我正在尝试使用 ipython 并行库中的并行计算。但是我对此知之甚少,而且我发现很难从对并行计算一无所知的人那里阅读该文档。 有趣的是,我发现的所有教程都只是重复使用文档中的示例,并使用相同的解释,
我的项目结构看起来像 Root + subproj1 + subproj2 在每个子项目中定义了自己的任务 run(){}。 我想要做的是从 Root 项目的运行任务并行运行 :subpro
我有一个 Foo ID 的列表。我需要为每个 ID 调用一个存储过程。 例如 Guid[] siteIds = ...; // typically contains 100 to 300 elemen
我是一名优秀的程序员,十分优秀!