gpt4 book ai didi

java - 在Nvidia GPU上使用Java(CUDA)

转载 作者:太空宇宙 更新时间:2023-11-04 14:35:05 26 4
gpt4 key购买 nike

我正在做一个用Java完成的业务项目,需要巨大的计算能力来计算业务市场。简单的数学运算,但包含大量数据。

我们订购了一些cuda gpu进行尝试,并且由于cuda不支持Java,我想知道从哪里开始。我应该建立一个JNI接口吗?我应该使用JCUDA还是其他方法?

我没有这方面的经验,我想如果有人可以指导我一些事情,以便我可以开始研究和学习。

最佳答案

首先,您应该意识到CUDA不会自动加快计算速度这一事实。一方面,由于GPU编程是一门艺术,正确实现它可能非常非常具有挑战性。另一方面,因为GPU仅适合某些类型的计算。

这听起来可能令人困惑,因为您基本上可以在GPU上进行任何计算。关键当然是您是否会实现良好的加速。这里最重要的分类是问题是任务并行还是数据并行。粗略地说,第一个是指多个线程正在或多或少地独立执行各自任务的问题。第二个问题涉及许多线程都在做相同的事情-但是在数据的不同部分上的问题。

后者就是GPU擅长的问题:GPU有很多内核,所有内核都做同样的事情,但是在输入数据的不同部分上运行。

您提到您拥有“简单的数学但有大量数据”。尽管这听起来像是一个完美的数据并行问题,因此很适合GPU,但还需要考虑另一个方面:GPU的理论计算能力(FLOPS,每秒浮点运算)非常快。但是它们经常受内存带宽的限制。

这导致了另一种问题分类。即问题是受内存限制还是受计算限制。

第一个是针对每个数据元素执行的指令数量很少的问题。例如,考虑并行向量加法:您必须读取两个数据元素,然后执行一次加法,然后将总和写入结果向量。在GPU上执行此操作时不会看到加速,因为单次添加不会补偿读取/写入内存的工作量。

第二个术语“计算边界”是指指令数量比存储器读/写数量多的问题。例如,考虑矩阵乘法:当n是矩阵的大小时,指令数将为O(n ^ 3)。在这种情况下,可以预期GPU在某种矩阵大小下的性能将超过CPU。另一个示例可能是在“少量”数据元素上执行许多复杂的三角计算(正弦/余弦等)时。

根据经验:您可以假设从“主” GPU内存中读取/写入一个数据元素的延迟大约为500条指令...。

因此,GPU性能的另一个关键点是数据局部性:如果您必须读取或写入数据(在大多数情况下,您必须; ;-)),则应确保数据保持尽可能近的距离。可能的GPU核心。因此,GPU具有某些内存区域(称为“本地内存”或“共享内存”),通常只有几KB大小,但是对于将要包含在计算中的数据特别有效。

因此,再次强调这一点:GPU编程是一门艺术,它仅与CPU上的并行编程密切相关。 Java中的诸如Threads之类的东西,以及诸如ThreadPoolExecutorsForkJoinPools等所有并发基础结构,可能给人的印象是,您只需要以某种方式拆分工作并将其分配到多个处理器中即可。在GPU上,您可能会遇到更低的挑战:占用率,寄存器压力,共享内存压力,内存合并……仅举几例。

但是,当您要解决数据并行,计算受限的问题时,GPU是您的最佳选择。



一般说明:您特别要求CUDA。但我强烈建议您也了解一下OpenCL。它有几个优点。首先,它是独立于供应商的开放行业标准,并且由AMD,Apple,Intel和NVIDIA实施OpenCL。此外,在Java世界中,对OpenCL的支持更加广泛。我更愿意使用CUDA的唯一情况是,当您想使用CUDA运行时库时,例如CUFFT用于FFT或CUBLAS用于BLAS(矩阵/矢量运算)。尽管有为OpenCL提供类似库的方法,但是除非您为这些库创建自己的JNI绑定,否则不能直接从Java端使用它们。



您可能还会发现,在2012年10月,OpenJDK HotSpot组启动了项目“ Sumatra”:http://openjdk.java.net/projects/sumatra/,可能会很有趣。该项目的目标是在JIT的支持下直接在JVM中提供GPU支持。当前状态和第一结果可以在其邮件列表中找到,网址为http://mail.openjdk.java.net/mailman/listinfo/sumatra-dev



但是,不久前,我收集了一些与“ Java on the GPU”有关的资源。我将在这里以没有特定顺序的方式再次总结这些内容。

(免责声明:我是http://jcuda.org/http://jocl.org/的作者)

(字节)代码转换和OpenCL代码生成:

https://github.com/aparapi/aparapi:由AMD创建并积极维护的开源库。在特殊的“内核”类中,可以重写应并行执行的特定方法。使用自己的字节码读取器在运行时加载此方法的字节码。该代码被翻译成OpenCL代码,然后使用OpenCL编译器进行编译。然后可以在OpenCL设备上执行结果,该设备可以是GPU或CPU。如果无法编译为OpenCL(或没有OpenCL可用),则仍将使用线程池并行执行代码。

https://github.com/pcpratts/rootbeer1:一个开放源代码库,用于将Java的某些部分转换为CUDA程序。它提供了专用接口,可以实现这些接口来指示应在GPU上执行某个类。与Aparapi相比,它尝试将“相关”数据(即对象图的完整相关部分!)自动序列化为适合GPU的表示形式。

https://code.google.com/archive/p/java-gpu/:用于将带注释的Java代码(有一定限制)转换为CUDA代码的库,然后将其编译为在GPU上执行代码的库。该图书馆是根据博士学位论文开发的,其中包含有关翻译过程的深刻背景信息。

https://github.com/ochafik/ScalaCL:OpenCL的Scala绑定。允许特殊的Scala集合与OpenCL并行处理。在集合的元素上调用的函数可以是常用的Scala函数(有一些限制),然后将其转换为OpenCL内核。

语言扩展

http://www.ateji.com/px/index.html:Java的语言扩展,它允许并行构造(例如,并行的循环,OpenMP样式),然后使用OpenCL在GPU上执行。不幸的是,这个非常有前途的项目不再维护。

http://www.habanero.rice.edu/Publications.html(JCUDA):一个可以将特殊的Java代码(称为JCUDA代码)转换为Java-和CUDA-C代码的库,然后可以在GPU上对其进行编译和执行。但是,该图书馆似乎没有公开可用。

https://www2.informatik.uni-erlangen.de/EN/research/JavaOpenMP/index.html:具有CUDA后端的OpenMP构造的Java语言扩展

Java OpenCL / CUDA绑定库

https://github.com/ochafik/JavaCL:OpenCL的Java绑定:基于自动生成的低级绑定的面向对象的OpenCL库

http://jogamp.org/jocl/www/:OpenCL的Java绑定:基于自动生成的低级绑定的面向对象的OpenCL库

http://www.lwjgl.org/:OpenCL的Java绑定:自动生成的低级绑定和面向对象的便利类

http://jocl.org/:OpenCL的Java绑定:低级绑定,它们是原始OpenCL API的1:1映射

http://jcuda.org/:CUDA的Java绑定:低级绑定,它们是原始CUDA API的1:1映射



http://sourceforge.net/projects/jopencl/:OpenCL的Java绑定。自2010年以来似乎不再维护

http://www.hoopoe-cloud.com/:CUDA的Java绑定。似乎不再维护

关于java - 在Nvidia GPU上使用Java(CUDA),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25691084/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com