gpt4 book ai didi

r - 如何在 R 中对 SpatialPointsDataFrame 进行子采样

转载 作者:行者123 更新时间:2023-12-04 00:39:07 27 4
gpt4 key购买 nike

我正在致力于运行 RandomForest。我已经导入了代表已使用和未使用站点的点数据,并从栅格 GIS 图层创建了一个栅格堆栈。我创建了一个 SpatialPointDataFrame,其中包含我所有已使用和未使用的点及其基础栅格值。

require(sp)
require(rgdal)
require(raster)

#my raster stack
xvariables <- stack(rlist) #rlist = a list of raster layers

# Reading in the spatial used and unused points.
ldata <- readOGR(dsn=paste(path, "DATA", sep="/"), layer=used_avail)
str(Ldata@data)


#Attach raster values to point data.
v <- as.data.frame(extract(xvariables, ldata))
ldata@data = data.frame(ldata@data, v[match(rownames(ldata@data), rownames(v)),])

接下来我计划使用这些数据运行随机森林。问题是,我有一个非常大的数据集(超过 40,000 个数据点)。我需要对我的数据进行子采样,但我真的很难弄清楚如何做到这一点。我试过使用 sample() 函数,但我认为因为我有一个 SpatialPointsDataFram 它不会工作?我是 R 的新手,非常感谢任何想法。

谢谢!

最佳答案

子集 Spatial*DataFrame 对象相当简单;只需使用

spSubset <- spObject[<sample_criterion>,]

这是一个示例,我们加载新泽西州的所有大学,然后随机抽取一个大小为 20 的样本。还有一个例子,我们加载美国所有州并只抓取“新泽西”。

library(rgdal)
set.seed(1)
# random sample of NJ colleges...
sampleSize=20
spPoints <- readOGR(dsn=".",layer="NJ_College_Univ_NAD83njsp")
spSample <- spPoints[sample(1:length(spPoints),sampleSize),]

# extract NJ from US States TIGER/Line file
states <- readOGR(dsn=".",layer="tl_2013_us_state")
NJ <- states[states$NAME=="New Jersey",]
NJ <- spTransform(NJ,CRS=CRS(proj4string(spSample)))

# render the map
NJ.df <- fortify(NJ)
library(ggplot2)
ggplot() +
geom_path(data=NJ.df, aes(x=long,y=lat, group=group))+
geom_point(data=as.data.frame(coordinates(spPoints)),
aes(x=coords.x1,y=coords.x2),colour="blue", size=3)+
geom_point(data=as.data.frame(coordinates(spSample)),
aes(x=coords.x1,y=coords.x2),colour="red", size=3)+
coord_fixed() + labs(x="", y="") + theme(axis.text=element_blank())

可以找到美国各州的TIGER/Line文件here . NJ 学院的 shapefile 是 here .

关于r - 如何在 R 中对 SpatialPointsDataFrame 进行子采样,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21488825/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com