- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试将我的程序转换为 Numba,但我在将一个函数嵌套在另一个函数中时遇到问题。我的方法基于 NumPy vectorize
,但我无法使用 numba 执行相同的操作。您知道我可以效仿的任何类似示例吗?
这是我的程序:
import numpy as np
import scipy
import functools
from multiprocessing import Pool
import lib as mlib
from tqdm import tqdm
class vectorize(np.vectorize):
def __get__(self, obj, objtype):
return functools.partial(self.__call__, obj)
class stability:
def __init__(self):
self.r1 = 20
self.r2 = 50
self.rz= 20
self.zeta = self.r2/self.r1
self.beta = self.rz/self.r1
self.Ms = 0.956e6
self.delta = 1
@vectorize
def f(self,ro,rs):
# print("delta=",self.delta)
return rs/ro*np.exp( (-1/self.delta)*(ro-rs))
@vectorize
def mz(self,ro,rs):
return ( 1-self.f(ro,rs)**2 ) / ( 1+self.f(ro,rs)**2 )
@vectorize
def mro(self,ro,rs):
return ( 2*self.f(ro,rs) ) / ( 1+self.f(ro,rs)**2 )
@vectorize
def E1m(self,a, b, N,rs,d):
r = np.linspace(a+(b-a)/(2*N), b-(b-a)/(2*N), N)
fx = r* ((1/self.delta+1/r)**2 * self.mro(r,rs)**2 + (1/r**2 + 1)*self.mro(r,rs)**2+d*(-(1/self.delta + 1/r) * self.mro(r,rs) + 1/r * self.mro(r,rs)*self.mz(r,rs) ))
area = np.sum(fx)*(b-a)/N
return area
if __name__ == "__main__":
rs = np.arange(0,100,1)
model = stability()
print(model.E1m(0,20,300,rs,2))
最佳答案
大多数内置的 NumPy 函数已经矢量化,不需要 np.vectorize
装饰师。一般来说numpy.vectorize
装饰器会产生非常慢的结果(与 NumPy 相比)!作为documentation mentions in the Notes section :
The vectorize function is provided primarily for convenience, not for performance. The implementation is essentially a for loop.
您可以通过从 f
中删除装饰器来极大地提高代码效率。 , mz
, 和 mro
.它会给出相同的结果,但运行速度更快(您的代码 10.4 秒,更改后的代码 0.014 秒)。
E1m
通过使用广播而不是 vectorize
也可以改进功能(在性能方面) .
但是由于您的问题是关于如何使用 numba.vectorize
关于这些功能,我有一些坏消息:无法使用 numba.vectorize
在实例方法上——因为 numba 需要类型信息,而这些信息不适用于自定义 Python 类。
一般来说,numba 最好从 NumPy 数组上的纯循环代码开始(无矢量化),然后使用 numba njit
装饰器(或 jit(nopython=True)
。这对方法也不起作用,但传递标量参数并仅迭代所需的数组要容易得多。
但是如果你真的想使用 vectorize
方法,这是你如何为 f
做的:
self
,您不能使用实例方法,因此您需要静态方法或独立函数。因为您无权访问 self
你要么需要传入 delta
或使其全局化。我决定把它作为一个论点:def f(ro, rs, delta):
return rs / ro * np.exp((-1 / delta) * (ro - rs))
return_type(argument_1_type, argument_2_type, ....)
):@nb.vectorize('f8(i8, f8, f8)')
def f(ro, rs, delta):
return rs / ro * np.exp((-1 / delta) * (ro - rs))
基本上就是这样。
对于 mz
和 mro
您也可以这样做(请记住,您还需要那里的 delta
):
@nb.vectorize('f8(i8, f8, f8)')
def mz(ro, rs, delta):
return (1 - f(ro, rs, delta)**2) / (1 + f(ro, rs, delta)**2)
@nb.vectorize('f8(i8, f8, f8)')
def mro(ro, rs, delta):
return (2 * f(ro, rs, delta) ) / (1 + f(ro, rs, delta)**2)
转换 E1m
函数似乎有点棘手(我没有尝试过),我把它留给读者作为练习。
如果你感兴趣我将如何在没有 vectorize
的情况下解决它:
import numpy as np
import numba as nb
@nb.njit
def f(ro, rs, delta):
return rs / ro * np.exp((-1 / delta) * (ro - rs))
@nb.njit
def mz(ro, rs, delta):
f_2 = f(ro, rs, delta) ** 2
return (1 - f_2) / (1 + f_2)
@nb.njit
def mro(ro, rs, delta):
f_ = f(ro, rs, delta)
return (2 * f_ ) / (1 + f_**2)
@nb.njit(parallel=True)
def E1m(a, b, N, rs, d):
delta = 1
r = np.linspace(a + (b - a) / (2 * N), b - (b - a) / (2 * N), N)
result = np.empty(rs.size)
for idx in nb.prange(rs.size):
rs_item = rs[idx]
sum_ = 0.
for r_item in r:
mro_ = mro(r_item, rs_item, delta)
sum_ += r_item * ((1 / delta + 1 / r_item)**2 * mro_**2
+ (1 / r_item**2 + 1) * mro_**2
+ d * (-(1 / delta + 1 / r_item) * mro_
+ 1 / r_item * mro_ * mz(r_item, rs_item, delta)))
result[idx] = sum_ * (b - a) / N
return result
可能还有一些可以通过循环提升或更智能的计算方法进行优化,但在我的计算机上它已经相当快了:大约 100 微秒与上面的 14 毫秒相比,所以又快了 100 倍。
关于python - 如何正确地将 numpy vectorize 转换为 numba vectorize,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57924347/
作为脚本的输出,我有 numpy masked array和标准numpy array .如何在运行脚本时轻松检查数组是否为掩码(具有 data 、 mask 属性)? 最佳答案 您可以通过 isin
我的问题 假设我有 a = np.array([ np.array([1,2]), np.array([3,4]), np.array([5,6]), np.array([7,8]), np.arra
numpy 是否有用于矩阵模幂运算的内置实现? (正如 user2357112 所指出的,我实际上是在寻找元素明智的模块化减少) 对常规数字进行模幂运算的一种方法是使用平方求幂 (https://en
我已经在 Numpy 中实现了这个梯度下降: def gradientDescent(X, y, theta, alpha, iterations): m = len(y) for i
我有一个使用 Numpy 在 CentOS7 上运行的项目。 问题是安装此依赖项需要花费大量时间。 因此,我尝试 yum install pip install 之前的 numpy 库它。 所以我跑:
处理我想要旋转的数据。请注意,我仅限于 numpy,无法使用 pandas。原始数据如下所示: data = [ [ 1, a, [, ] ], [ 1, b, [, ] ], [ 2,
numpy.random.seed(7) 在不同的机器学习和数据分析教程中,我看到这个种子集有不同的数字。选择特定的种子编号真的有区别吗?或者任何数字都可以吗?选择种子数的目标是相同实验的可重复性。
我需要读取存储在内存映射文件中的巨大 numpy 数组的部分内容,处理数据并对数组的另一部分重复。整个 numpy 数组占用大约 50 GB,我的机器有 8 GB RAM。 我最初使用 numpy.m
处理我想要旋转的数据。请注意,我仅限于 numpy,无法使用 pandas。原始数据如下所示: data = [ [ 1, a, [, ] ], [ 1, b, [, ] ], [ 2,
似乎 numpy.empty() 可以做的任何事情都可以使用 numpy.ndarray() 轻松完成,例如: >>> np.empty(shape=(2, 2), dtype=np.dtype('d
我在大型 numpy 数组中有许多不同的形式,我想使用 numpy 和 scipy 计算它们之间的边到边欧氏距离。 注意:我进行了搜索,这与堆栈中之前的其他问题不同,因为我想获得数组中标记 block
我有一个大小为 (2x3) 的 numpy 对象数组。我们称之为M1。在M1中有6个numpy数组。M1 给定行中的数组形状相同,但与 M1 任何其他行中的数组形状不同。 也就是说, M1 = [ [
如何使用爱因斯坦表示法编写以下点积? import numpy as np LHS = np.ones((5,20,2)) RHS = np.ones((20,2)) np.sum([ np.
假设我有 np.array of a = [0, 1, 1, 0, 0, 1] 和 b = [1, 1, 0, 0, 0, 1] 我想要一个新矩阵 c 使得如果 a[i] = 0 和 b[i] = 0
我有一个形状为 (32,5) 的 numpy 数组 batch。批处理的每个元素都包含一个 numpy 数组 batch_elem = [s,_,_,_,_] 其中 s = [img,val1,val
尝试为基于文本的多标签分类问题训练单层神经网络。 model= Sequential() model.add(Dense(20, input_dim=400, kernel_initializer='
首先是一个简单的例子 import numpy as np a = np.ones((2,2)) b = 2*np.ones((2,2)) c = 3*np.ones((2,2)) d = 4*np.
我正在尝试平均二维 numpy 数组。所以,我使用了 numpy.mean 但结果是空数组。 import numpy as np ws1 = np.array(ws1) ws1_I8 = np.ar
import numpy as np x = np.array([[1,2 ,3], [9,8,7]]) y = np.array([[2,1 ,0], [1,0,2]]) x[y] 预期输出: ar
我有两个数组 A (4000,4000),其中只有对角线填充了数据,而 B (4000,5) 填充了数据。有没有比 numpy.dot(a,b) 函数更快的方法来乘(点)这些数组? 到目前为止,我发现
我是一名优秀的程序员,十分优秀!