- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有一大堆二维点,希望能够快速查询二维空间中任何点的 k 最近邻的集合。由于它是低维的,KD-Tree 似乎是解决它的好方法。我的初始数据集只会很少更新,因此查询点的时间对我来说应该比构建时间更重要。但是,每次运行程序时,我都需要重新加载对象,因此我还需要一个可以快速保存和重新加载的结构。
两种现成的选择是 SciPy 和 SciKit-learn 中的 KDTree 结构。下面我将在大范围的列表长度上对其中两个的构建速度和查询速度进行概要分析。我还对 SciKit-learn 结构进行了腌制,并显示了从腌制中重新加载对象的时间。这些在图表中进行了比较,用于生成时序的代码包含在下面。
正如我在图中所示,对于大 N,从pickle 加载比从头构建它快半个数量级,这表明 KDTree 适合我的用例(即频繁重新加载但不经常重新构建) )。
比较构建时间的代码:
# Profiling the building time for the two KD-tree structures and re-loading from a pickle
import math, timeit, pickle, sklearn.neighbors
the_lengths = [100, 1000, 10000, 100000, 1000000]
theSciPyBuildTime = []
theSklBuildTime = []
theRebuildTime = []
for length in the_lengths:
dim = 5*int(math.sqrt(length))
nTimes = 50
from random import randint
listOfRandom2DPoints = [ [randint(0,dim),randint(0,dim)] for x in range(length)]
setup = """import scipy.spatial
import sklearn.neighbors
length = """ + str(length) + """
dim = """ + str(dim) + """
from random import randint
listOfRandom2DPoints = [ [randint(0,dim),randint(0,dim)] for x in range(length)]"""
theSciPyBuildTime.append( timeit.timeit('scipy.spatial.KDTree(listOfRandom2DPoints, leafsize=20)', setup=setup, number=nTimes)/nTimes )
theSklBuildTime.append( timeit.timeit('sklearn.neighbors.KDTree(listOfRandom2DPoints, leaf_size=20)', setup=setup, number=nTimes)/nTimes )
theTreeSkl = sklearn.neighbors.KDTree(listOfRandom2DPoints, leaf_size=20, metric='euclidean')
f = open('temp.pkl','w')
temp = pickle.dumps(theTreeSkl)
theRebuildTime.append( timeit.timeit('pickle.loads(temp)', 'from __main__ import pickle,temp', number=nTimes)/nTimes )
# Profiling the query time for the two KD-tree structures
import scipy.spatial, sklearn.neighbors
the_lengths = [100, 1000, 10000, 100000, 1000000, 10000000]
theSciPyQueryTime = []
theSklQueryTime = []
for length in the_lengths:
dim = 5*int(math.sqrt(length))
nTimes = 50
listOfRandom2DPoints = [ [randint(0,dim),randint(0,dim)] for x in range(length)]
setup = """from __main__ import sciPiTree,sklTree
from random import randint
length = """ + str(length) + """
randPoint = [randint(0,""" + str(dim) + """),randint(0,""" + str(dim) + """)]"""
sciPiTree = scipy.spatial.KDTree(listOfRandom2DPoints, leafsize=20)
sklTree = sklearn.neighbors.KDTree(listOfRandom2DPoints, leaf_size=20)
theSciPyQueryTime.append( timeit.timeit('sciPiTree.query(randPoint,10)', setup=setup, number=nTimes)/nTimes )
theSklQueryTime.append( timeit.timeit('sklTree.query(randPoint,10)', setup=setup, number=nTimes)/nTimes )
最佳答案
在我回答之前,我想指出,当您的程序使用大量数字时,您应该始终使用 numpy.array
来自 numpy library来存储这种数据。不知道是什么版本的Python,scikit-learn , 和 SciPy您在使用吗,但我使用的是 Python 3.7.3、scikit-learn 0.21.3 和 SciPy 1.3.0。当我运行你的代码来比较构建时间时,我得到了 AttributeError: 'list' object has no attribute 'size'
.这个错误是说列表 listOfRandom2DPoints
没有属性 size
.问题是sklearn.neighbors.KDTree
预计 numpy.array
具有属性 size
.类(class)scipy.spatial.KDTree
适用于 Python 列表,但正如您在 source code of __init__
method of class scipy.spatial.KDTree
中看到的那样, 第一行是 self.data = np.asarray(data)
,这意味着数据将被转换为 numpy.array
.
因此,我更改了您的台词:
from random import randint
listOfRandom2DPoints = [ [randint(0,dim),randint(0,dim)] for x in range(length)]
import numpy as np
ListOfRandom2DPoints = np.random.randint(0, dim, size=(length, 2))
sklearn.neighbors.KDTree
在 Cython 中实现( link to source code ) 和 scipy.spatial.KDTree
是用纯 Python 代码编写的 ( link to source code )。scipy.spatial.cKDTree
( link to source code ),它的作用与 scipy.spatial.KDTree
相同如果你比较 sklearn.neighbors.KDTree
的构建时间和 scipy.spatial.cKDTree
:timeit.timeit('scipy.spatial.cKDTree(npListOfRandom2DPoints, leafsize=20)', setup=setup, number=nTimes)
timeit.timeit('sklearn.neighbors.KDTree(npListOfRandom2DPoints, leaf_size=20)', setup=setup, number=nTimes)
scipy.spatial.cKDTree
快了一点(大约 20%)。scipy.spatial.KDTree
(纯 Python 实现)大约比 sklearn.neighbors.KDTree
慢十倍(Cython 实现)和 scipy.spatial.cKDTree
(Cython 实现)大约与 sklearn.neighbors.KDTree
一样快.我已经测试了最多 N = 10000000 的查询时间,并得到了与您相同的结果。查询时间与 N 无关(意味着 scipy.spatial.KDTree
的查询时间对于 N = 1000 和 N = 1000000 是相同的,对于 sklearn.neighbors.KDTree
和 scipy.spatial.cKDTree
的查询时间是相同的)。那是因为查询(搜索)时间复杂度是 O(logN) 并且即使对于 N = 1000000,logN 也非常小,因此差异太小而无法衡量。 sklearn.neighbors.KDTree
的构建算法( __init__
类的方法) 的时间复杂度为 O(KNlogN) ( about scikit-learn Nearest Neighbor Algorithms ) 所以在你的情况下它是 O(2NlogN) ,实际上是 O(NlogN)。基于非常相似的构建时间 sklearn.neighbors.KDTree
和 scipy.spatial.cKDTree
我假设 scipy.spatial.cKDTree
的构建算法也有 O(NlogN) 的时间复杂度。我不是最近邻搜索算法的专家,但基于一些在线搜索,我会说对于低维最近邻搜索算法,这尽可能快。如果你去nearest neighbor search Wikipedia page你会看到有 exact methods和 approximation methods . k-d tree是精确方法,它是 space partitioning methods 的子类型.在所有空间划分方法中(仅基于维基百科页面的最近邻搜索的快速精确方法),kd 树是静态上下文中最近邻搜索的低维欧几里德空间的最佳方法(没有很多插入和删除)。另外,如果您查看 greedy search in proximity neighborhood graphs 下的近似方法您将看到“接近图方法被认为是近似最近邻搜索的最新技术。”当您查看为此方法引用的研究文章 ( Efficient and robust approximate nearest neighbor search using Hierarchical Navigable Small World graphs ) 时,您会发现此方法的时间复杂度为 O(NlogN)。这意味着对于低维空间 k-d 树(精确方法)与近似方法一样快。目前,我们已经比较了用于最近邻搜索的结构的构建(构造)时间复杂度。所有这些算法的搜索(查询)时间复杂度为 O(logN)。所以我们能得到的最好的是构建 O(NlogN) 的复杂度和 O(logN) 的查询复杂度,这就是我们在 k-d 树方法中所拥有的。所以根据我的研究,我会说 k-d 树是低维最近邻搜索的最佳结构。sklearn.neighbors.KDTree
使用 Cython 实现和 scipy.spatial.KDTree
使用纯 Python 实现。理论上sklearn.neighbors.KDTree
应该比 scipy.spatial.KDTree
快,我将它们与 1000000 进行比较,它们似乎在 N 大时更接近。对于 N = 100,scipy.spatial.KDTree
大约比 sklearn.neighbors.KDTree
慢 10 倍对于 N = 1000000,scipy.spatial.KDTree
大约是 sklearn.neighbors.KDTree
的两倍.我不确定为什么会发生这种情况,但我怀疑对于大 N,内存成为比操作次数更大的问题。pickle.loads
的持续时间与加载对象的大小成线性比例。 sklearn.neighbors.KDTree
, scipy.spatial.KDTree
, 和 scipy.spatial.cKDTree
有效,所以我无法重现您的错误。我猜问题是你有一个旧版本的 SciPy,所以将 SciPy 更新到最新版本应该可以解决这个问题。关于python - 使用 SciKit-learn 和 SciPy 构建/搜索 K-Nearest-Neighbour 的速度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30447355/
我在使用 cx_freeze 和 scipy 时无法编译 exe。特别是,我的脚本使用 from scipy.interpolate import griddata 构建过程似乎成功完成,但是当我尝试
是否可以通过函数在 scipy 中定义一个稀疏矩阵,而不是列出所有可能的值?在文档中,我看到可以通过以下方式创建稀疏矩阵 There are seven available sparse matrix
SciPy为非线性最小二乘问题提供了两种功能: optimize.leastsq()仅使用Levenberg-Marquardt算法。 optimize.least_squares()允许我们选择Le
SciPy 中的求解器能否处理复数值(即 x=x'+i*x")?我对使用 Nelder-Mead 类型的最小化函数特别感兴趣。我通常是 Matlab 用户,我知道 Matlab 没有复杂的求解器。如果
我有看起来像这样的数据集: position number_of_tag_at_this_position 3 4 8 6 13 25 23 12 我想对这个数据集应用三次样条插值来插值标签密度;为此
所以,我正在处理维基百科转储,以计算大约 5,700,000 个页面的页面排名。这些文件经过预处理,因此不是 XML 格式。 它们取自 http://haselgrove.id.au/wikipedi
Scipy 和 Numpy 返回归一化的特征向量。我正在尝试将这些向量用于物理应用程序,我需要它们不被标准化。 例如a = np.matrix('-3, 2; -1, 0') W,V = spl.ei
基于此处提供的解释 1 ,我正在尝试使用相同的想法来加速以下积分: import scipy.integrate as si from scipy.optimize import root, fsol
这很容易重新创建。 如果我的脚本 foo.py 是: import scipy 然后运行: python pyinstaller.py --onefile foo.py 当我启动 foo.exe 时,
我想在我的代码中使用 scipy.spatial.distance.cosine。如果我执行类似 import scipy.spatial 或 from scipy import spatial 的操
Numpy 有一个基本的 pxd,声明它的 c 接口(interface)到 cython。是否有用于 scipy 组件(尤其是 scipy.integrate.quadpack)的 pxd? 或者,
有人可以帮我处理 scipy.stats.chisquare 吗?我没有统计/数学背景,我正在使用来自 https://en.wikipedia.org/wiki/Chi-squared_test 的
我正在使用 scipy.odr 拟合数据与权重,但我不知道如何获得拟合优度或 R 平方的度量。有没有人对如何使用函数存储的输出获得此度量有建议? 最佳答案 res_var Output 的属性是所谓的
我刚刚下载了新的 python 3.8,我正在尝试使用以下方法安装 scipy 包: pip3.8 install scipy 但是构建失败并出现以下错误: **Failed to build sci
我有 my own triangulation algorithm它基于 Delaunay 条件和梯度创建三角剖分,使三角形与梯度对齐。 这是一个示例输出: 以上描述与问题无关,但对于上下文是必要的。
这是一个非常基本的问题,但我似乎找不到好的答案。 scipy 到底计算什么内容 scipy.stats.norm(50,10).pdf(45) 据我了解,平均值为 50、标准差为 10 的高斯中像 4
我正在使用 curve_fit 来拟合一阶动态系统的阶跃响应,以估计增益和时间常数。我使用两种方法。第一种方法是在时域中拟合从函数生成的曲线。 # define the first order dyn
让我们假设 x ~ Poisson(2.5);我想计算类似 E(x | x > 2) 的东西。 我认为这可以通过 .dist.expect 运算符来完成,即: D = stats.poisson(2.
我正在通过 OpenMDAO 使用 SLSQP 来解决优化问题。优化工作充分;最后的 SLSQP 输出如下: Optimization terminated successfully. (Exi
log( VA ) = gamma - (1/eta)log[alpha L ^(-eta) + 测试版 K ^(-eta)] 我试图用非线性最小二乘法估计上述函数。我为此使用了 3 个不同的包(Sc
我是一名优秀的程序员,十分优秀!