- Java锁的逻辑(结合对象头和ObjectMonitor)
- 还在用饼状图?来瞧瞧这些炫酷的百分比可视化新图形(附代码实现)⛵
- 自动注册实体类到EntityFrameworkCore上下文,并适配ABP及ABPVNext
- 基于Sklearn机器学习代码实战
本文示例代码已上传至我的 Github 仓库 https://github.com/CNFeffery/DataScienceStudyNotes 。
大家好我是费老师, geopandas 作为我们非常熟悉的 Python GIS 利器,兼顾着高性能和易用性,特别是在其 0.12.0 版本开始使用全新的 shapely 2.0矢量计算后端后,性能表现更是一路狂飙.
而我们作为使用者,当然是希望 geopandas 处理分析矢量数据越快越好。在今天的文章中,我将为大家简要介绍如何基于 dask 对 geopandas 进一步提速,从而更从容的应对更大规模的 GIS 分析计算任务.
很多朋友应该听说过 dask ,它是 Python 生态里非常知名的高性能计算框架,可以针对大型数组、数据框及机器学习模型进行并行计算调度优化,而 dask-geopandas 就是由 geopandas 团队研发的,基于 dask 对 GeoDataFrame 进行并行计算优化的框架,本质上是对 dask 和 geopandas 的封装整合.
dask-geopandas 的安装非常简单,在已经安装了 geopandas 的虚拟环境中,执行下列命令即可:
conda install dask-geopandas -c conda-forge -y
dask-geopandas 与 geopandas 的常用计算API是相通的,但调用方式略有不同,举一个实际例子,其中示例文件 demo_points.gdb 由以下代码随机生成并写出:
import numpy as np
import geopandas as gpd
from shapely import Point, Polygon
# 生成示例用矢量数据
demo_points = gpd.GeoDataFrame(
{
'id': range(1000000),
'geometry': [
Point(np.random.uniform(0, 90),
np.random.uniform(0, 90))
for i in range(1000000)
]
}
)
# 写出到本地gdb
demo_points.to_file('./demo_points.gdb', driver='OpenFileGDB')
在使用 dask-geopandas 时,我们首先还是需要用 geopandas 进行目标数据的读入,再使用 from_geopandas() 将其转换为 dask-geopandas 中可以直接操作的数据框对象,其中参数 npartitions 用于将原始数据集划分为n个数据块,理论上分区越多并行运算速度越快,但受限于机器的CPU瓶颈,通常建议设置 npartitions 为机器可调度的CPU核心数:
demo_points = gpd.read_file('./demo_points.gdb', driver='OpenFileGDB')
demo_points_ddf = dgpd.from_geopandas(demo_points, npartitions=4)
demo_points_ddf
在此基础上,后续执行各种运算都需要在代码末尾衔接 .compute() ,从而真正执行前面编排好的运算逻辑,以非矢量和矢量运算分别为例:
既然使用了 dask-geopandas 就是奔着其针对大型数据集的计算优化而去的,我们来比较一下其与原生 geopandas 在常见 GIS 计算任务下的性能表现,可以看到,在与 geopandas 的计算比较中, dask-geopandas 取得了约3倍的计算性能提升,且这种提升幅度会随着数据集规模的增加而愈发明显,因为 dask 可以很好的处理内存紧张时的计算优化:
当然,这并不代表我们可以在任何场景下用 dask-geopandas 代替 geopandas ,在常规的中小型数据集上 dask-geopandas 反而要慢一些,因为徒增了额外的分块调度消耗.
除了上述的内容外, dask-geopandas 还有一些实验性质的功能,如基于地理空间分布的 spatial_partitions 数据分块策略优化等,待它们稳定之后我会另外发文为大家介绍😉.
以上就是本文的全部内容,欢迎在评论区与我进行讨论~ 。
。
最后此篇关于(数据科学学习手札150)基于dask对geopandas进行并行加速的文章就讲到这里了,如果你想了解更多关于(数据科学学习手札150)基于dask对geopandas进行并行加速的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
有没有办法同时运行 2 个不同的代码块。我一直在研究 R 中的并行包,它们似乎都基于在循环中运行相同的函数。我正在寻找一种同时运行不同函数的方法(循环的 1 次迭代)。例如,我想在某个数据对象上创建一
无论如何增加 Parallel.For 启动后的循环次数?示例如下: var start = 0; var end = 5; Parallel.For(start, end, i => { C
我是 Golang 的新手,正在尝试了解并发和并行。我阅读了下面提到的关于并发和并行的文章。我执行了相同的程序。但没有得到相同的(混合字母和字符)输出。首先获取所有字母,然后获取字符。似乎并发不工作,
我正在寻找同时迭代 R 中两个或多个字符向量/列表的方法,例如。有没有办法做这样的事情: foo <- c('a','c','d') bar <- c('aa','cc','dd') for(i in
我对 Raku 很陌生,我对函数式方法有疑问,尤其是 reduce。 我最初有这样的方法: sub standardab{ my $mittel = mittel(@_); my $foo =
我最近花了很多时间来学习实时音频处理的细节,我发现的大多数库/工具都是c / c++代码或脚本/图形语言的形式,并在其中编译了c / c++代码。引擎盖。 使用基于回调的API,与GUI或App中的其
我正在使用 JMeter 进行图像负载测试。我有一个图像名称数组并遍历该数组,我通过 HTTP 请求获取所有图像。 -> loop_over_image - for loop controller
我整个晚上都在困惑这个问题...... makeflags = ['--prefix=/usr','--libdir=/usr/lib'] rootdir='/tmp/project' ps = se
我正在尝试提高计算图像平均值的方法的性能。 为此,我使用了两个 For 语句来迭代所有图像,因此我尝试使用一个 Parallel For 来改进它,但结果并不相同。 我做错了吗?或者是什么导致了差异?
假设您有一个并行 for 循环实现,例如ConcRT parallel_for,将所有工作放在一个 for 循环体内总是最好的吗? 举个例子: for(size_t i = 0; i < size()
我想并行运行一部分代码。目前我正在使用 Parallel.For 如何让10、20或40个线程同时运行 我当前的代码是: Parallel.For(1, total, (ii) =>
我使用 PAY API 进行了 PayPal 自适应并行支付,其中无论用户(买家)购买什么,都假设用户购买了总计 100 美元的商品。在我的自适应并行支付中,有 2 个接收方:Receiver1 和
我正在考虑让玩家加入游戏的高效算法。由于会有大量玩家,因此算法应该是异步的(即可扩展到集群中任意数量的机器)。有细节:想象有一个无向图(每个节点都是一个玩家)。玩家之间的每条边意味着玩家可以参加同一场
我有一个全局变量 volatile i = 0; 和两个线程。每个都执行以下操作: i++; System.out.print(i); 我收到以下组合。 12、21 和 22。 我理解为什么我没有得到
我有以下称为 pgain 的方法,它调用我试图并行化的方法 dist: /***************************************************************
我有一个 ruby 脚本读取一个巨大的表(约 2000 万行),进行一些处理并将其提供给 Solr 用于索引目的。这一直是我们流程中的一大瓶颈。我打算在这里加快速度,我想实现某种并行性。我对 Ru
我正在研究 Golang 并遇到一个问题,我已经研究了几天,我似乎无法理解 go routines 的概念以及它们的使用方式。 基本上我是在尝试生成数百万条随机记录。我有生成随机数据的函数,并将创建一
我希望 for 循环使用 go 例程并行。我尝试使用 channel ,但没有用。我的主要问题是,我想在继续之前等待所有迭代完成。这就是为什么在它不起作用之前简单地编写 go 的原因。我尝试使用 ch
我正在使用 import Control.Concurrent.ParallelIO.Global main = parallel_ (map processI [1..(sdNumber runPa
我正在尝试通过 makePSOCKcluster 连接到另一台计算机: library(parallel) cl ... doTryCatch -> recvData -> makeSOCKm
我是一名优秀的程序员,十分优秀!