gpt4 book ai didi

c++ - cl::finish无法在enDueNDRangeKernel上工作?

转载 作者:行者123 更新时间:2023-12-02 09:53:02 25 4
gpt4 key购买 nike

我正在尝试分析C++中OpenCL内核的性能。
我目前使用std::chrono每次在保存任何内容之前保存开始时间,然后再调用cl::finish(),然后保存结束时间。
虽然大多数结果看起来都是准确的,但我得到的一个缓冲区比其他所有缓冲区读取的时间更长。
如果查看我在下面的屏幕快照中登录的时间,您会发现“下一个索引”比“顶点”,“普通”或“三”花费的时间要多得多(〜770ms vs 50-200ms)。 (这些是我排队的4个读取缓冲区)。
这很奇怪,因为与保存int32的“下一个索引”相比,“顶点”和“普通”保持浮点数(它应该至少与int32相同)?并且大小为1.5。
特别是因为“Tri”也持有int32s,与“下一个索引”的770ms相比,只需要54毫秒(尽管公平地说,它只有“下一个索引”的大小)。
enter image description here
现在,我认为这是因为内核在登录时并未真正执行。如您所见,当它们在计算上非常昂贵并且“Next Index”是第一个ReadBuffer时,它们基本上根本不占用ms,因此基本上应该承担所有责任。
因此,我认为问题不在于“下一个索引”,而在于记录内核。
我发现了这个:https://community.khronos.org/t/clenqueuereadbuffer-is-incredibly-slow-when-called-infrequently/7325
答案指出应在“enqueueNDRangeKernel”之后调用cl::flush(),以便CPU实际上等待内核完成(我认为cl::finish()已经完成了?),但是如果我换成“flush” “完成”我仍然得到相同的结果。
那么,在这种情况下,有人对如何评估内核性能有任何想法吗?
我显然只能将一个内核和一个很小的读取缓冲区排队,然后仅在后者完成后进行测量以获取内核执行时间,但是我想有一个更简洁的解决方案,因此我可以随时进行测试,而无需每次都更改很多代码。
下面,我还发布了将内核和缓冲区排队的方式以及如何记录时间的方法:

    // queue Kernel execution, calculate a whole cube per work item
queue.enqueueNDRangeKernel(marchingCubesKernel, cl::NullRange, cl::NDRange(cubeCount));
cl::finish();
auto enqueue1End = std::chrono::high_resolution_clock::now();
auto enqueue2Start = std::chrono::high_resolution_clock::now();
// enqueue one kernel per vertex to search for next viable vertex in array
queue.enqueueNDRangeKernel(cleanUpKernel, cl::NullRange, cl::NDRange(vertexCount));
cl::finish();
auto enqueue2End = std::chrono::high_resolution_clock::now();

auto enqueueReadStart = std::chrono::high_resolution_clock::now();
// Read buffer back into vectors
auto nextIndexStart = std::chrono::high_resolution_clock::now();
queue.enqueueReadBuffer(nextIndexBuf, CL_FALSE, 0, sizeof(int32) * nextIndex.size(), nextIndex.data());
cl::finish();
auto nextIndexEnd = std::chrono::high_resolution_clock::now();
auto vertexStart = std::chrono::high_resolution_clock::now();
queue.enqueueReadBuffer(vertexBuf, CL_FALSE, 0, sizeof(float) * verCoords.size(), verCoords.data());
cl::finish();
auto vertexEnd = std::chrono::high_resolution_clock::now();
auto normalStart = std::chrono::high_resolution_clock::now();
queue.enqueueReadBuffer(normalBuf, CL_FALSE, 0, sizeof(float) * verNormalCoords.size(), verNormalCoords.data());
cl::finish();
auto normalEnd = std::chrono::high_resolution_clock::now();
auto triStart = std::chrono::high_resolution_clock::now();
queue.enqueueReadBuffer(triangleBuf, CL_FALSE, 0, sizeof(int32) * tris.size(), tris.data());
cl::finish();
auto triEnd = std::chrono::high_resolution_clock::now();
// wait till queue is empty
cl::finish();
auto enqueueReadEnd = std::chrono::high_resolution_clock::now();

auto end = std::chrono::high_resolution_clock::now();
double timeTaken = std::chrono::duration_cast<std::chrono::milliseconds>(end - start).count();
double kernel1Time = std::chrono::duration_cast<std::chrono::milliseconds>(enqueue1End - enqueue1Start).count();
double kernel2Time = std::chrono::duration_cast<std::chrono::milliseconds>(enqueue2End - enqueue2Start).count();
double readTime = std::chrono::duration_cast<std::chrono::milliseconds>(enqueueReadEnd - enqueueReadStart).count();
UE_LOG(LogTemp, Warning, TEXT("Cube March took: %f ms, consisting of:"), timeTaken);
UE_LOG(LogTemp, Warning, TEXT("Kernel1 took: %f ms"), kernel1Time);
UE_LOG(LogTemp, Warning, TEXT("Kernel2 took: %f ms"), kernel2Time);
UE_LOG(LogTemp, Warning, TEXT("Reading took: %f ms"), readTime);

double nextIndexTime = std::chrono::duration_cast<std::chrono::milliseconds>(nextIndexEnd - nextIndexStart).count();
UE_LOG(LogTemp, Warning, TEXT("Next Index took: %f ms"), nextIndexTime);
double vertexTime = std::chrono::duration_cast<std::chrono::milliseconds>(vertexEnd - vertexStart).count();
UE_LOG(LogTemp, Warning, TEXT("Vertex Time took: %f ms"), vertexTime);
double normalTime = std::chrono::duration_cast<std::chrono::milliseconds>(normalEnd - normalStart).count();
UE_LOG(LogTemp, Warning, TEXT("Normal Time took: %f ms"), normalTime);
double triTime = std::chrono::duration_cast<std::chrono::milliseconds>(triEnd - triStart).count();
UE_LOG(LogTemp, Warning, TEXT("Tri Time took: %f ms"), triTime);
如果有人有想法,请告诉我。
这不是一个大问题,但是我想了解为什么finish和flush在内核上似乎不起作用。
提前致谢,
美食家

最佳答案

当使用cl::finish();时,必须使用makeDefault()或至少使用用于将当前队列设置为默认队列的makeDefaultProvided()方法创建队列。否则,调用cl::finish();不会执行任何操作,并且可能还会返回错误。
更好的选择是使用queue.finish(),以便清楚地知道完成调用在哪个队列上执行。或者,可以通过传递queue.enqueueReadBuffer()来阻止对CL_TRUE的调用,然后queue.finish()是多余的。

关于c++ - cl::finish无法在enDueNDRangeKernel上工作?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62742232/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com