- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有一个(大)长度为 N 的 k 不同函数数组,以及一个长度为 N 的横坐标数组。我想计算横坐标处的函数以返回一个长度为 N 的纵坐标数组,关键是,我需要非常快地完成它。
我已经尝试通过以下循环调用 np.where,这太慢了:
创建一些假数据来说明问题:
def trivial_functional(i): return lambda x : i*x
k = 250
func_table = [trivial_functional(j) for j in range(k)]
func_table = np.array(func_table) # possibly unnecessary
我们有一个包含 250 个不同函数的表。现在我创建了一个大数组,其中包含这些函数的许多重复条目,以及一组相同长度的点,这些点应在这些点上进行计算。
Npts = 1e6
abcissa_array = np.random.random(Npts)
function_indices = np.random.random_integers(0,len(func_table)-1,Npts)
func_array = func_table[function_indices]
最后,遍历数据使用的每个函数并在相关点集上对其进行评估:
desired_output = np.zeros(Npts)
for func_index in set(function_indices):
idx = np.where(function_indices==func_index)[0]
desired_output[idx] = func_table[func_index](abcissa_array[idx])
这个循环在我的笔记本电脑上大约需要 0.35 秒,这是我代码中最大的瓶颈一个数量级。
有人知道如何避免对 np.where 的盲目查找调用吗?是否可以巧妙地使用 numba 来加速此循环?
最佳答案
这与您的(非常棒!) self 回答几乎相同,但不那么繁琐。在我的机器上它似乎也稍微快了一点——基于粗略的大约 30 毫秒 test .
def apply_indexed_fast(array, func_indices, func_table):
func_argsort = func_indices.argsort()
func_ranges = list(np.searchsorted(func_indices[func_argsort], range(len(func_table))))
func_ranges.append(None)
out = np.zeros_like(array)
for f, start, end in zip(func_table, func_ranges, func_ranges[1:]):
ix = func_argsort[start:end]
out[ix] = f(array[ix])
return out
与您的一样,这会将一系列 argsort
索引分成多个 block ,每个 block 对应于 func_table
中的一个函数。然后它使用每个 block 为其对应的函数选择输入和输出索引。为了确定 block 边界,它使用 np.searchsorted
而不是 np.unique
—— 其中可以想到 searchsorted(a, b)
作为二分搜索算法,返回 a
中第一个值的索引等于或大于给定值或 b
中的值。
然后 zip 函数简单地并行迭代它的参数,从每个参数返回一个项目,将它们收集在一个元组中,然后将它们串在一起成一个列表。 (所以 zip([1, 2, 3], ['a', 'b', 'c'], ['b', 'c', 'd'])
返回 [(1, 'a', 'b'), (2, 'b', 'c'), (3, 'c', 'd')]
.) 这个,连同 for
语句内置的“解包”这些元组的能力,允许以简洁但富有表现力的方式并行迭代多个序列。
在这种情况下,我用它来遍历 func_tables
中的函数以及 func_ranges
的两个不同步副本。这可确保 end
变量中 func_ranges
中的项目始终比 start
变量中的项目领先一步。通过将 None
附加到 func_ranges
,我确保最终 block 得到妥善处理——zip
在其任何一个参数用完项目时停止,它切断了序列中的最终值。方便的是,None
值也用作开放式切片索引!
另一个做同样事情的技巧需要多几行,但内存开销较低,尤其是当与 itertools
等价于 zip
一起使用时,izip
:
range_iter_a = iter(func_ranges) # create generators that iterate over the
range_iter_b = iter(func_ranges) # values in `func_ranges` without making copies
next(range_iter_b, None) # advance the second generator by one
for f, start, end in itertools.izip(func_table, range_iter_a, range_iter_b):
...
但是,这些基于生成器的低开销方法有时可能比普通列表慢一点。另外请注意,在 Python 3 中,zip
的行为更像 izip
。
关于python - 用于在相同长度的一维 numpy 数组上评估一维函数数组的高效算法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28459896/
我有一个 Haskell 程序,它用 Metropolis 模拟 Ising 模型 算法。主要操作是一个模板操作,它需要下一个的总和 2D 中的邻居,然后将其与中心元素相乘。那么 元素可能已更新。 在
对于卷积,我想在一个维度上应用圆形填充,在所有其他维度上应用零填充。我该怎么做? 对于卷积,有 28 个 channel ,并且数据在球形箱中描述。半径时间有 20 个箱子,极地时间有 20 个箱子,
假设您有一个数组并想创建另一个数组,该数组的值连续等于第一个数组的 10 个元素的标准差。在 for 循环的帮助下,它可以像下面的代码一样轻松编写。我想要做的是避免使用 for 循环来加快执行时间。有
我有一个长度为size * size的一维数组,表示值的平方字段。 我的目标是将数组旋转到位(previous question)。我目前在获取正确的内圈索引方面遇到问题。我的算法有什么错误? 这是我
stride = 1 和 1 个过滤器的 1D CNN 的输出长度不应该等于输入长度而不需要填充吗? 我认为是这种情况,但创建了一个具有这些规范的 Keras 模型,当输入形状为 (17910,1)
我有一个零散布的一维数组。想创建第二个数组,其中包含最后一个零的位置,如下所示: >>> a = np.array([1, 0, 3, 2, 0, 3, 5, 8, 0, 7, 12]) >>> fo
我试着去理解卡尔曼滤波器是如何工作的,因为多维变量太混乱了,一开始我从一维的例子开始。 我发现有3个不同的来源解释温度计的情况,但所有这些情况实现的方程略有不同,我没有得到重点。 我实现了解决方案2,
我有一个二维数组,我需要将它转换为一个列表(同一对象)。我不想使用 for 或 foreach 循环来执行此操作,它们将获取每个元素并将其添加到列表中。还有其他方法吗? 最佳答案 好吧,你可以让它使用
我正在使用 Keras 构建一个 CNN,将以下 Conv1D 作为我的第一层: cnn.add(Conv1D( filters=512, kernel_size=3, str
在 Python 中使用 TensorFlow,我正在制作一个以一维数组作为输入的神经网络。我想在网络中添加一个卷积层,但似乎无法让它工作。 我的训练数据如下所示: n_samples = 20 le
我有一个简单的一维数组,但我想使用 jQuery 将长列表分成两列。我怎样才能实现这个目标? var articles = ['article10','article9','article8','ar
我有一个刚从文件中读入的 float 的一维 vector 。 std::vector result(s.size() / sizeof(float)); 我想像这样使用这些数据 myTable[rl
使用 numpy 将 data reshape 为 fencepost 的最有效方法是什么? data = np.array([1, 2, 3, 4, 5])
我正在尝试通过删除 for 循环并仅在处理大型数据集时使用 numpy 数组来优化一些代码。 我想采用一维 numpy 数组,例如: a = [1, 2, 3, 4, 5] 并生成一个 2D nump
我正在尝试为两个数组 Pages 和 Price 赋值。 #include int main() { static int pages[3]; static int price[3];
我是深度学习、keras API 和卷积网络的新手,如果这些错误是幼稚的,请事先致歉。我正在尝试构建一个用于分类的简单卷积神经网络。输入数据 X 有 286 个样本,每个样本有 500 个时间点,4
假设我有 Numpy 数组 p 和一个 Scipy 稀疏矩阵 q 这样 >>> p.shape (10,) >>> q.shape (10,100) 我想做 p 和 q 的点积。当我尝试使用 nump
我需要一些行为类似于 std::vector 的东西(界面/功能/等)但我需要它是平坦的,即它不能动态分配缓冲区。显然,这通常不起作用,因为可用大小必须在编译时确定。但我希望类型能够处理N没有额外分配
作为我正在运行的一些模拟的一部分,我需要最终对一些非常长的(实数)数字序列执行以下操作。这是要点: 给定一个长的一维 NumPy 数组,对于数组中的每个位置,我想对该位置前后的值进行平均,取平均值之间
这个问题在这里已经有了答案: Concatenating two one-dimensional NumPy arrays (6 个答案) 关闭 5 年前。 我想将 numpy 数组存储到另一个 n
我是一名优秀的程序员,十分优秀!