gpt4 book ai didi

CUDA:分散通信模式

转载 作者:行者123 更新时间:2023-12-04 17:18:35 24 4
gpt4 key购买 nike

我正在从 Udacity 的 course 学习 CUDA关于并行编程。在测验中,他们有一个给定的问题,即对预先排序的变量(玩家的高度)进行排序。因为,它是输入和输出数组之间的一一对应关系,所以它应该不是Map通信模式而不是 Scatter ? enter image description here

最佳答案

据我所知,CUDA 没有对这些术语进行规范定义。因此,我的回答只是对它可能或已经被如何解释的建议。

“因为,它是输入和输出数组一一对应的”

该图似乎不支持此语句,该图显示了输出数组中的间隙,这些间隙没有与之关联的相应输入点。

如果将较小的一组值分布到较大的数组中(因此在输出数组中产生间隙,其中没有输入值对应于间隙位置),则可以使用散点图来描述该操作。 scatters 和 maps 都有描述输入值去向的 map ,但可能是教师定义了 scatter 和 map 以区分这两种情况,例如以下合理的定义:

Scatter:从输入到输出的一对一关系(即单向关系)。每个输入位置都有对应的输出位置,但并不是每个输出位置都有对应的输入位置。

Map:输入和输出之间的一对一关系(即双向关系)。每个输入位置都有一个对应的输出位置,每个输出位置都有一个对应的输入位置。

Gather:从输出到输入的一对一关系(即单向关系)。每个输出位置都有对应的输入位置,但并不是每个输入位置都有对应的输出位置。

关于CUDA:分散通信模式,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27874612/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com