gpt4 book ai didi

r - 下载网站上文件夹中的所有文件

转载 作者:行者123 更新时间:2023-12-02 04:26:10 26 4
gpt4 key购买 nike

我的问题是在 R 中如何下载网站上的所有文件?我知道如何一项一项地完成,但不能一次全部完成。例如:

http://www2.census.gov/geo/docs/maps-data/data/rel/t00t10/

最佳答案

我在页面上 56 个文件的一小部分 (3) 上对此进行了测试,效果很好。

## your base url
url <- "http://www2.census.gov/geo/docs/maps-data/data/rel/t00t10/"
## query the url to get all the file names ending in '.zip'
zips <- XML::getHTMLLinks(
url,
xpQuery = "//a/@href['.zip'=substring(., string-length(.) - 3)]"
)
## create a new directory 'myzips' to hold the downloads
dir.create("myzips")
## save the current directory path for later
wd <- getwd()
## change working directory for the download
setwd("myzips")
## create all the new files
file.create(zips)
## download them all
lapply(paste0(url, zips), function(x) download.file(x, basename(x)))
## reset working directory to original
setwd(wd)

现在所有 zip 文件都位于目录 myzips 中,并准备好进行进一步处理。作为 lapply() 的替代方案,您还可以使用 for() 循环。

## download them all
for(u in paste0(url, zips)) download.file(u, basename(u))

当然,设置 quiet = TRUE 可能会很好,因为我们正在下载 56 个文件。

关于r - 下载网站上文件夹中的所有文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33790052/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com