gpt4 book ai didi

linux - 使用wget获取某个Web文件夹并将其保存到本地Linux服务器

转载 作者:太空宇宙 更新时间:2023-11-04 06:00:05 26 4
gpt4 key购买 nike

我进行了很多搜索,但找不到合适的答案。我只想从 http://somewebsite.com/images-and-docs 递归下载所有内容到当前文件夹,同时保留源文件夹的整个结构。我应该使用哪个命令?

最佳答案

如果您需要下载整个网站(也许是为了离线查看),wget 可以做到工作——例如:

$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names=windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html/

此命令会下载网站 www.website.org/tutorials/html/。

选项是:

--recursive:下载整个网站。

--domains website.org:不要点击 website.org 之外的链接。

--no-parent:不要点击tutorials/html/目录之外的链接。

--page-Requires:获取组成页面的所有元素(图像、CSS 等)。

--html-extension:以 .html 扩展名保存文件。

--convert-links:转换链接,以便它们在本地、离线情况下工作。

--restrict-file-names=windows:修改文件名,以便它们也能在 Windows 中工作。

--no-clobber:不覆盖任何现有文件(在下载中断和恢复)。

关于linux - 使用wget获取某个Web文件夹并将其保存到本地Linux服务器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47005042/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com