- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我有一个经常被调用的函数,它非常适合并行处理,所以我研究了 C++ 放大器作为初学者。该函数接受三个输入:
显然,#1 每次调用都必须复制到 GPU 上。为此,我使用了堆栈管理的常量数组<>,效果很好。
对于 #2,最佳情况是以某种方式将 vector 保存在 GPU 内存中,因为它是常量。这可能使用放大器吗?还是每次调用 parallel_for_each 时都必须复制它,类似于 #1?
对于 #3,是否可以在 GPU 上分配缓冲区并将其复制回来,而不是在 cpu 堆栈上创建一个空缓冲区,复制它,并在结果写入后复制回来?
最后一件事,因为 parallel_for_each 调用本质上是异步的 - 并且将被 #3 的析构函数或 array_view::synchronize() 同步,是否可以离开当前函数(和堆栈空间),做一些同时 GPU 正在处理其他内容,然后在稍后“同步”?
它需要一个动态分配的 array_view 来避免销毁时的 synchronize(),但是当我使用指针而不是堆栈管理的对象时,该函数似乎无法编译:
error C3581: unsupported type in amp restricted code
pointer or reference is not allowed as pointed to type, array element type or data member type (except reference to concurrency::array/texture)
此外,对于那些在 OpenCL 等其他架构方面有经验的人,我在那里的运气会更好吗?
最佳答案
1 - 是的。如果您传递一个 const array_view
作为输入,它将不会被复制回主机内存。
std::vector<float> cpu_data(20000000, 0.0f);
array_view<const float, 1> cpu_data_view(cpu_data.size(), cpu_data);
2 - 根据系数数组的大小,您可以做以下几件事之一;
a - 将其存储在 parallel_for_each
lambda 中的本地数组中。这很方便,但会耗尽(宝贵的)本地内存,因此只有在数组非常小的情况下才是现实的。
array<float, 1> gpu_data(400);
std::vector<float> cpu_data(gpu_data.extent.size(), 1.0f);
copy(cpu_data.begin(), gpu_data);
在这种情况下,gpu_data 将可用于所有 AMP 代码,前提是 lambda 捕获它。
b - 创建一个 array
并在执行任何 AMP 代码之前明确地将常量数据复制到其中。
c - 如果每个线程多次访问它,请考虑将其加载到 tile_static
内存中。
3 - 您仍然可以使用 array_view
来保存您的输出数据,但在执行 parallel_for_each 之前对其调用
将防止不必要的复制到 GPU 内存。discard_data
std::vector<float> cpu_output_data(20000000, 0.0f);
array_view<float, 1> output_data_view(cpu_output_data.size(), cpu_output_data);
output_data_view.discard_data();
**异步 - ** 是的,完全有可能做到这一点。您可以将 AMP 与 C++ future 和异步操作相结合,以在 CPU(或另一个 GPU)上同时执行其他工作。请记住,CPU 参与控制 GPU 上的工作调度以及将数据传入和传出。因此,如果您使 CPU 过载,那么 GPU 性能可能会受到影响。
关于您的编译器错误,如果不查看代码,很难判断问题出在哪里。完全可以执行以下操作:
std::unique_ptr<concurrency::array_view<int, 2>> data_view;
您可能想看看 examples covered in the C++ AMP book .它们在 CodePlex 上可用,涵盖了很多此类场景。
关于C++ 放大器 : Transferring data async and keeping data on accelerator,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25496140/
我有带皮肤的 DNN。我的 head 标签有 runat="server"所以我尝试在 head 标签内添加一个标签 "> 在后面的代码中,我在属性中设置了 var GoogleAPIkey。问题是它
我在 Node.JS 中有一个导出模块 exports.doSomethingImportant= function(req, res) { var id = req.params.id; Demo.
我是 F# 的新手,我一直在阅读 F# for Fun and Profit。在为什么使用 F#? 系列中,有一个 post描述异步代码。我遇到了 Async.StartChild函数,我不明白为什么
File 中有一堆相当方便的方法类,如 ReadAll***/WriteAll***/AppendAll***。 我遇到过很多情况,当我需要它们的异步对应物时,但它们根本不存在。 为什么?有什么陷阱吗
我最近开始做一个 Node 项目,并且一直在使用 async 库。我有点困惑哪个选项会更快。在某些数据上使用 async.map 并获取其结果,或使用 async.each 迭代一组用户并将他们的相应
您好,我正在试用 Springs 异步执行器,发现您可以使用 @Async。我想知道是否有可能在 @Async 中使用 @Async,要求是需要将任务委托(delegate)给 @Async 方法在第
我需要支持取消一个函数,该函数返回一个可以在启动后取消的对象。在我的例子中,requester 类位于我无法修改的第 3 方库中。 actor MyActor { ... func d
假设 asyncSendMsg不返回任何内容,我想在另一个异步块中启动它,但不等待它完成,这之间有什么区别: async { //(...async stuff...) for msg
我想用 Mocha 测试异步代码. 我跟着这个教程testing-promises-with-mocha .最后,它说最好的方法是 async/await。 以下是我的代码,我打算将 setTimeo
正如我有限(甚至错误)的理解,Async.StartImmediate 和 Async.RunSynchronously 在当前线程上启动异步计算。那么这两个功能究竟有什么区别呢?谁能帮忙解释一下?
我有一行使用await fetch() 的代码。我正在使用一些调用 eval("await fetch ...etc...") 的脚本注入(inject),但问题是 await 在执行时不会执行从ev
我正在尝试使用 nodeJS 构建一个网络抓取工具,它在网站的 HTML 中搜索图像,缓存图像源 URL,然后搜索最大尺寸的图像。 我遇到的问题是 deliverLargestImage() 在循环遍
我想结合使用 async.each 和 async.series,但得到了意想不到的结果。 async.each([1, 2], function(item, nloop) { async.s
我的代码有问题吗?我使用 async.eachSeries 但我的结果总是抛出 undefined。 这里是我的代码: async.eachSeries([1,2,3], function(data,
我想在 trait 中编写异步函数,但是因为 async fn in traits 还不被支持,我试图找到等效的方法接口(interface)。这是我在 Rust nightly (2019-01-0
async setMyPhotos() { const newPhotos = await Promise.all(newPhotoPromises); someOtherPromise();
async.js 中 async.each 与 async.every 的区别?似乎两者都相同,只是 async.every 返回结果。纠正我,我错了。 最佳答案 每个异步 .each(coll, i
我正在尝试对一组项目运行 async.each。 对于每个项目,我想运行一个 async.waterfall。请参阅下面的代码。 var ids = [1, 2]; async.each(ids,
我的目标是测试 API 调用,将延迟考虑在内。我的灵感来自 this post . 我设计了一个沙箱,其中模拟 API 需要 1000 毫秒来响应和更改全局变量 result 的值。测试检查 500
async.each 是否作为异步数组迭代工作? async.eachSeries 是否作为同步数组迭代工作?(它实际上等待响应) 我问这些是因为两者都有回调,但 async.each 的工作方式类似
我是一名优秀的程序员,十分优秀!