gpt4 book ai didi

python - Julia 性能与 Python+Numba LLVM/JIT 编译代码的比较

转载 作者:太空狗 更新时间:2023-10-29 17:32:48 25 4
gpt4 key购买 nike

目前为止我看到的 Julia 性能基准,例如 http://julialang.org/ ,将 Julia 与纯 Python 或 Python+NumPy 进行比较。与 NumPy 不同,SciPy 使用 BLAS 和 LAPACK 库,我们在其中获得了最佳的多线程 SIMD 实现。如果我们假设在调用 BLAS 和 LAPACK 函数(底层)时 Julia 和 Python 的性能相同,那么在将 Numba 或 NumbaPro 用于不调用 BLAS 或 LAPACK 函数的代码时,Julia 的性能与 CPython 相比如何?

我注意到的一件事是 Julia 使用的是 LLVM v3.3,而 Numba 使用的是 llvmlite,后者构建于 LLVM v3.5 之上。 Julia 的旧 LLVM 是否会阻止在较新的架构(例如 Intel Haswell(AVX2 指令))上实现最佳 SIMD?

我对处理非常大的矢量的意大利面条代码和小型 DSP 循环的性能比较很感兴趣。由于将数据移入和移出 GPU 设备内存的开销,对我来说后者由 CPU 处理比 GPU 更有效。我只对单个 Intel Core-i7 CPU 的性能感兴趣,因此集群性能对我来说并不重要。我特别感兴趣的是创建 DSP 功能的并行实现的轻松和成功。

这个问题的第二部分是 Numba 与 NumbaPro 的比较(忽略 MKL BLAS)。考虑到 Numba 中 @jit 装饰器的新 nogil 参数,是否真的需要 NumbaPro 的 target="parallel"

最佳答案

这是一个非常宽泛的问题。关于基准测试请求,您最好自己运行一些符合您自己需求的小型基准测试。回答其中一个问题:

One thing I notice is that Julia is using LLVM v3.3, while Numba uses llvmlite, which is built on LLVM v3.5. Does Julia's old LLVM prevent an optimum SIMD implementation on newer architectures, such as Intel Haswell (AVX2 instructions)?

[2017/01+:以下信息不再适用于当前的 Julia 版本]

Julia 确实使用 LLVM 3.3 关闭了 avx2,因为 Haswell 上存在一些严重的错误。

Julia 是用 LLVM 3.3 为当前版本和 nightlies 构建的,但你可以用 3.5、3.6 和通常的 svn trunk 构建(如果我们还没有更新一些 API 更改给定的一天,请提交问题)。为此,请在 Make.user 中设置 LLVM_VER=svn(例如),然后继续按照构建说明进行操作。

关于python - Julia 性能与 Python+Numba LLVM/JIT 编译代码的比较,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29548803/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com